Index
sen när inteligência artificiell ingick i verktyget GPT-2, blev många förvånade över förmågan att generera texter. Verktyget, skapat av OpenAI, skapade till och med en fiktiv text som visade upptäckten av enhörningar av forskare. Men den breda användningen av texter gjorda av bots, slutade med att väcka en kontrovers: hur vet man om en text verkligen är skriven av AI?
Syftar till att programmera en algoritm som kan kolla vad som var skriven av AI, ett team av forskare från Massachusetts Institute of Technology (MIT)) utvecklat ett system som heter GLTR. Men MIT är inte ensamt i detta lopp.
Letar också efter en linjal för att avgöra vad som produceras eller inte produceras av intelligenta algoritmer OpenAI lanserade en ny funktion i sitt ChatGPT-system den 31 januari. Nu kan den som använder den automatiska textproducenten välja alternativet klassificeringsverktyg (klassificeringsverktyg) för att kontrollera AI-texter.
Uppkomsten av ChatGPT: Hur automatiserade texter kom fram
För att förstå var ChatGPT, folk måste känna till organisationen bakom appen. Skapad 2015, det var OpenAI som startade konstruktionen av algoritmen, som idag har som VD Sam Altman. Företaget har som mål att bedriva avancerad forskning inom inteligência artificiell. släppandet av chatt ägde rum den 30 november 2022 och är utformad för att svara på flera frågor från användare.
"[ChatGPT är utformad för att] svara på frågor, känna igen fel, identifiera felaktiga antaganden och avvisa olämpliga förfrågningar."
Öppna AI om hur chatten fungerar med artificiell intelligens

Det finns andra liknande automatiseringar skapade av OpenAI. Exempel är Instruera GPT, som syftar till att ge instruktioner och svar till användare och DALL · E, som kan generera bilder på användarens begäran.
Medvetet om att det automatiserade verktyget för att skapa text kunde öka produktionen av desinformation beslutade företaget att tillämpa en ändring. Förutom att tillkännage rankningsverktyget OpenAI varnade för att användningen av ChatGPT kan vara ett hot om den används för att skapa falska nyheter.
Hur utvärderingen av texter skrivna av AI fungerar
O projekt GPZero hade funktionen att verifiera författarskapet till texter gjorda av AI. I grund och botten utvärderar algoritmen om det finns författarskap till ChatGPT i de analyserade texterna. Appen ser också om text har komplexitet och variationer av meningar, genom beräkningar. Uppfinnaren av applikationen var Edward Tian, 22 år gammal, student vid Princeton Universitet, I USA. Förutom att utveckla beräkningsmetoderna byggde han algoritmen med Python, med hjälp av Streamlit-biblioteket.

I en intervju med The Guardian, tian noterade att utan intresset från stora teknikföretag är det svårt att stoppa användningen av ChatGPT för plagiat. Angående motiveringen konstaterade han att tanken var att undvika användningen av mjukvaror som lyckades undgå detektorer av felaktiga kopior.
Hur rankningsverktyget fungerar OpenAIhar i sin tur vissa begränsningar. Dessutom genomgår det några tester och dess skapande metod involverade maskininlärning. I detta skede jämfördes texten skriven av artificiell intelligens med produktioner gjorda av människor, som behandlade samma ämne.
AI-skriven textdetektering i GPTZero
Verktyget skapat av MIT kan verifiera robotförfattarskap med en enkel teknik. Det vill säga, den följer den väg som skapas av GPT-2 att producera texter: se vilka ord som är mer benägna att komma direkt efter vart och ett. Så den GLTR kontrollerar om det som skrevs faktiskt är gjort av en bot.
O GLTR visar användarna om det är en text skriven av artificiell intelligens genom en enkel signal. Om du har deltagande av en algoritm som GPT-2, visas texten i grönt. Andra färger, som lila, röd och gul, visar att texten är mer sannolikt att ha gjorts av en människa.

Presumtionen om vilka ord som kan komma efter varandra är den avgörande faktorn för att en text ska passera som skriven av en människa. Men forskarna som skapade GLTR tyder på att det är just oförutsägbarheten som hindrar en text skriven av IA inte uppmärksammas.
"Vanligt skrivande väljer faktiskt ofta oförutsägbara ord som är mer vettiga med textens tema. Det betyder att vi kan kontrollera om en text faktiskt verkar mer sannolikt att komma från en människa.”
Forskare ansvariga för GLTR-algoritmen för Futurism-webbplatsen
Däremot tekniken GLTR måste gå igenom förbättringar. Ibland kan texten vara gjord av en människa, men algoritmen anklagar felaktigt att den är gjord av någon. bot. På så sätt kommer att kontrollera förekomsten av AI-texter vara en uppgift som kommer att behöva fler verktyg.
OpenAI Rating Tool i ChatGPT
A klassificeringsverktyg har begränsningen att verifiera det automatiserade eller organiska författarskapet av textproduktioner på minst tusen tecken. Lösningen, skapad från maskinträning, behöver fortfarande genomgå några justeringar, eftersom den fortfarande förvirrar vad som skrevs av IA med det som produceras av någon människa.
"I våra bedömningar, med en uppsättning engelska texter, identifierar vår klassificerare korrekt 26 % av AI-skrivna texter (true tests) som 'troligen AI-skrivna', samtidigt som den felaktigt identifierar mänskligt producerade texter som mänskliga. artificiell intelligens 9 % av tiden (falskt positiva)”.
OpenAI

En extra fara finns på AI-företagets radar. Så småningom kan texter med automatiserad produktion återanpassas av elever som söker hitta mönster i innehållet som genereras av inteligência artificiell och vet hur man överlista dem. På detta sätt OpenAI det står redan att den nya klassificeringsfunktionen för närvarande fortfarande inte kan användas för att en gång för alla avgöra om en produktion kommer från till exempel en bot. Förväntningen är att företaget kommer att kunna göra ytterligare framsteg i denna utmaning inom en snar framtid.
Veja também: ChatGPT klarar MBA, juridik och medicinska prov i USA.
källor: The Guardian | Digitalt utseende | PC Mag | Futurism | lifta.
Granskats av Glatt
Upptäck mer om Showmetech
Registrera dig för att få våra senaste nyheter via e-post.