Index
VD för Twitter, Elon Musk och historikern känd för boken En kort historia om mänskligheten, Yuval Noah Harari, bland andra specialister, forskare och forskare, bestämde sig för att skriva under ett brev där de ber om en paus i uppdateringen och utvecklingen av AI.
Brevet i fråga producerades av Future of Life Institute (Institute for the Future of Life, i fri översättning) och rekommenderar ett uppehåll i utvecklingen av artificiell intelligens (AI) på minst sex månader, vilket är transparent. Lär dig mer om innehållet i dokumentet, se översättningen av hela texten och håll koll på diskussionerna kring följande ämne.
Vad säger brevet mot AI om artificiell intelligens?
Egenföretagande och ökningen av desinformation är två av de största problemen med AI-tekniker som lyfts fram i brevet. Innehållet i texten kräver också att ögonblicket av upphävande av utveckling med verktyg som t.ex GPT-4, midjourney och liknande AI-lösningar måste vara "offentliga och verifierbara".
När det gäller investeringar diskuteras också hur OpenAI, Microsoft e Google befinner sig i en teknikkapplöpning utan att titta närmare på hur regeringar och offentliga institutioner kämpar för att hänga med i varje nytt steg. Det vill säga, enligt dokumentet går AI-sektorn in i en hastighet som blir allt svårare att följa och även de aktörer som är involverade i tekniken inser detta.
"Om denna paus inte kan regleras snabbt, bör regeringar gå in och inleda en avstängning"
brev från Future of Life Institute

O text han nämner också AI-laboratorier som producerar teknik, men som inte kan göra korrekta bedömningar och inte ens kan ha kontroll över dessa digitala sinnen. Det som intrigerar undertecknarna – från Apples grundare Steve Wozniak till banbrytande forskare som Yoshua Bengio och Stuart Russel till tidigare Google-produktfilosofen Tristan Harris – är frågor kring omfattningen av informationsspridning. falskheter, utbytet av mänskliga sinnen och själva "kontrollen". av vår civilisation”. I denna mening uppmärksammar dokumentet också det bästa investeringsögonblicket:
"Kraftfulla AI-system bör endast utvecklas när vi är övertygade om att deras effekter kommer att vara positiva och att deras risker kommer att hanteras."
brev från Future of Life Institute
Future of Life Institute och Responsible Technology
Grundades 2015, från en investering av Elon Musk Future of Life Institute strävar efter att distansera nya tekniska framsteg från möjliga risker för livet, både för mänskligheten och för andra levande varelser. Organisationen uppmärksammar inte bara AI, utan övervakar även produktioner inom områden som bioteknik och kärnenergi. Detta instituts strävan att stödja tekniskt ansvar har som vision en värld där sjukdomar utrotas och demokratier stärks runt om i världen.

Future of Lifes handlingar erkändes av Förenta Nationerna (FN) 2020: FN utsåg institutet till en representant för det civila samhället i frågor som rör AI. Tidigare i år var dock ordföranden för den teknikvakthunden, Max Tegmark, tvungen att be om ursäkt för en missriktad investering i en högerextrema medieplattform, Sveriges Nya Dagbladet.
Vilken ställning har andra företag när det gäller AI-utveckling?
Konsoliderade bolag som t.ex Google e Microsoft undvek att kommentera brevet från Future of Life Institute. De två företagen går alltmer för att erbjuda AI-lösningar, i ljuset av produktionerna av OpenAI, företaget som skapade ChatGPT. Förresten, "mamma" till en av de mest kända AI:erna för tillfället fick från Microsoft 10 miljarder dollar i investeringar. Samtidigt använder företaget som skapats av Bill Gates OpenAI-teknologi i sin sökmotor bing.

Denna månad publicerade av en slump till och med Bill Gates en brev där han tar upp de möjliga effekter som AI-lösningar kan ge för framtiden. Google upprätthåller sina investeringar i artificiell intelligens genom Bard, som ännu inte är helt tillgänglig för allmänheten.
Expertbekymmer om AI och GPT-4
Även om det har förbättrats, verktyget GPT-4 det ger fortfarande resultat med vissa hallucinationer och kan betjäna användare som använder skadligt språk. Men det finns de som anser att pausen i själva verket borde vara att förstå mer om fördelarna – och inte bara skadorna med AI-teknik. Det menar Peter Stone, en forskare vid University of Texas i Austin (USA).

"Jag tycker att det är värt att ha lite erfarenhet av hur [AI] kan användas på rätt sätt eller inte, innan vi går vidare med att utveckla nästa [teknik]. Det här borde inte vara ett lopp för att producera en ny modell av artificiell intelligens och släppa den före de andra.”
Peter Sten
I motsats till denna position, en av undertecknarna, Emad Mostaque, grundare av företaget Stabilitet AI (tillägnad verktyg med artificiell intelligens), sa till Wired att AI-lösningar är ett möjligt hot mot själva existensen av samhället. Han gav också vikt vid hur investeringar bör ses över, med mer hänsyn till vad som kan komma att hända i framtiden för denna tekniktävling.
"Det är dags att lägga kommersiella prioriteringar åt sidan och ta en paus för allas bästa, mer för att forska snarare än att gå in i ett lopp med en osäker framtid."
Emad Mostaque
Brev mot AI: fullständig översättning

Pausa Giant AI-experiment: Ett öppet brev
Vi råder alla laboratorier för artificiell intelligens (AI) att omedelbart pausa träningen på AI-system som är kraftfullare än GPT-4 i minst sex månader
AI-system med intelligens som kan konkurrera med människor kan utgöra stora risker för samhället och mänskligheten, vilket framgår av omfattande forskning vid Cornell University. Justeringsproblemet (Brian Christian, 2020), Att vara människa i en tid av artificiell intelligens (Max Tegmark, 2017) och av andra studier — om framsteg inom området, etik, påverkan på arbetsmarknaden, existentiella risker — förutom att de är erkända av välrenommerade AI-laboratorier. Som det står i Asilomars AI-principer, "Avancerad AI kan representera en djupgående förändring i livets historia på jorden, och måste planeras och hanteras med omsorg och med lämpliga resurser." Tyvärr sker inte den här nivån av planering och ledning, även om de senaste månaderna har sett AI-labb börjat ett out-of-control race för att utveckla och utnyttja allt kraftfullare digitala sinnen som ingen - inte ens deras skapare - kan förstå. , förutsäga eller kontrollera tillförlitligt.
Nu har nuvarande AI-system blivit kapabla att konkurrera med människor i uppgifter i allmänhet, och vi måste fråga oss själva: Vi måste låta maskiner översvämma våra informationskanaler med proselytism och osanningar? Vi måste automatisera alla jobb, inklusive tillfredsställande sådana? Vi måste utveckla icke-mänskliga sinnen så att de så småningom kan överträffa och överträffa oss, göra oss föråldrade och ersätta oss? Vi måste riskerar att tappa kontrollen över vår civilisation? Sådana beslut bör inte delegeras till teknikledare som inte stöds. Kraftfulla AI-system bör endast utvecklas när vi är övertygade om att deras effekter kommer att vara positiva och att deras risker kommer att hanteras.. Denna tillit måste vara väl motiverad och ökad i förhållande till omfattningen av systemens potentiella konsekvenser. En nyligen publicerad OpenAI-position om generativ artificiell intelligens säger att "vid något tillfälle kan det vara viktigt att ha en oberoende granskning, innan man börjar träna system i framtiden, för mer avancerade insatser, eftersom tillväxthastighetsgränsen för den dator som används för att skapa nya modeller [av AI]”. Vi instämmer. Tiden är inne.
därför, Vi har rådet alla laboratorier för artificiell intelligens (AI) att omedelbart pausa träning på AI-system som är kraftfullare än GPT-4 i minst sex månader. Denna paus måste vara offentlig och verifierbar och omfatta alla nyckelaktörer. Om en sådan paus inte kan regleras snabbt måste de styrande ingripa och inleda en avstängning.
AI-labb och oberoende experter bör använda denna paus för att gemensamt utveckla och implementera en serie delade säkerhetsprotokoll för design och utveckling av avancerade AI:er, som granskas noggrant och verifieras av tredjepartsutvärderare. Dessa protokoll måste säkerställa att system som styrs av dessa standarder är säkra bortom rimligt tvivel — ett exempel är OECD:s allmänt antagna AI-principer, som kräver att AI-system "fungerar korrekt och inte visar opålitliga säkerhetsrisker" . Den där inte det innebär ett uppehåll i AI-utvecklingen i allmänhet, men helt enkelt en utgång från en farlig kapplöpning mot oförutsägbara "black box"-modeller, större och större och med framväxande kapacitet.
AI forskning och utveckling måste fokusera på att göra dagens kraftfulla toppmoderna system mer exakta, säkra, tolkbara, transparenta, robusta, anpassade, tillförlitliga och lojala.
Parallellt måste AI-utvecklare arbeta med politiska beslutsfattare för att påskynda produktionen av rigorösa AI-styrningssystem. De måste innehålla minst:
- nya och kompetenta tillsynsmyndigheter dedikerade till artificiell intelligens;
- verifiering och övervakning av mycket kraftfulla AI-system med ett stort bidrag i beräkningskapacitet;
- härkomst och varumärkessystem för att hjälpa till att skilja verkliga från syntetiska modeller av digitala sinnen, samt spåra läckor av dessa teknologier;
- ett blomstrande ekosystem för certifiering och revision;
- skada engagemang från AI-system;
- tillräckligt stark offentlig finansiering för teknisk forskning om AI-säkerhet; Det är
- välfinansierade institutioner för att hantera allvarliga ekonomiska och politiska konsekvenser som AI:er orsakar (särskilt i relation till demokrati).
Mänskligheten kan njuta av en fruktbar framtid med AI. Efter att framgångsrikt ha skapat kraftfulla AI-system kan vi nu fira en "sommar av artificiell intelligens", där vi skördar frukterna, konstruerar dessa system till klar nytta för alla och ger samhället en chans att anpassa sig. Samhället har "tryckt på pausknappen" på andra teknologier med potentiellt katastrofala effekter för alla - såsom kloning, eugenik och genteknik. Vi kan göra samma sak här. Låt oss njuta av en lång sommar av AI, inte rusa in på hösten.
Veja também:
Hur man använder Midjourney för att skapa AI-drivna bilder
Källa: Trådbunden | Tech Crunch | Livets framtid | Biträdande World News
Granskats av Glaucon Vital den 29/3/23.
Upptäck mer om Showmetech
Registrera dig för att få våra senaste nyheter via e-post.