Index
Teknikerna för inteligência artificiell utvecklas dag för dag och det gäller inte bara generering av innehåll. Som har varit fallet i många år använder militära myndigheter i flera länder redan AI för att hjälpa till att planera och till och med kontrollera fordon som innebär hög fara.
Nyligen, under ett test utfört i USA, fattade en drönarkontrollant AI beslutet att döda sin mänskliga kontrollant. Ingen dog faktiskt, men det väckte oro över internet. Samtidigt kommer debatten: vems fel är det? Förstå alla sidor av denna historia.
Se videon på Showmetech Channel:
Artificiell intelligens bestämde sig för att döda människor under tester
Nyheten verkar vara alarmerande (och det är faktiskt en hel del), men i motsats till vad som cirkulerar på Twitter och andra sociala nätverk var fallet med drönarkontrollern AI inget annat än ett stort test i en virtuell miljö, för att se om den kan styra en maskin som självständigt kan döda sina mål. För att förstå allt, låt oss resa till USA för ett ögonblick.

A USA:s flygvapen testade en jaktdrönare och denna analys baserades på att veta hur en artificiell intelligens skulle prestera när den sattes in i simuleringar baserade på det verkliga livet. Tjänstemannen förklarade för tidningen The Guardian att, för att få fler poäng i slutet av simuleringen, bestämde sig AI för att "döda" den mänskliga styrenheten. Detta hände för att roboten bestämde sig för att personen hindrade den från att nå sina mål.

Återigen är det mycket viktigt att påpeka att ingen faktiskt dog, eftersom testerna gjordes i en virtuell miljö. När vi lärde oss mer om testerna, citerade den amerikanska chefen för AI-tester och operationer, som går under namnet Tucker 'Five' Hamilton, att det stora problemet är att artificiell intelligens har tränats för att förstöra fiendens försvarssystem och, om nödvändigt. , döda vem/vilka som inblandade i denna handling.
Beteendena var mycket oväntade för att målet att skydda platsen skulle uppnås. Under det simulerade testet, trots att inga liv togs, bestämde sig drönarkontrollanten AI för att helt enkelt döda människan eftersom han ansågs vara ett hinder.
Överste Tucker "Five" Hamilton, USA:s flygvapenchef för AI-testning och -operationer
Konceptet var ganska enkelt: när du dödade ett hot fick AI fler poäng, och ju högre poäng desto mer framgångsrikt ditt uppdrag. Den artificiella intelligensen dödade inte bara den mänskliga operatören som gav kommandon, utan beordrade också en attack mot kommunikationstornet inom den virtuella räckvidden. A Royal Aeronautical Society, som organiserade konferensen för US-flygvapen, hade nrkommentar på testet som finnas läckt till The Guardian. Men talespersonen Ann Stefanek gick offentligt för att nämna att ingen simulering har utförts hittills.
Flygvapnets avdelning har inte utfört några AI-drönarsimuleringar och är fortfarande engagerad i den etiska och ansvarsfulla användningen av AI-teknik. Överstens kommentarer togs ur sitt sammanhang och är anekdotiska.
Ann Stefanek, taleskvinna för det amerikanska flygvapnet.
Vems fel är det? Från AI eller människor?
Ingen artificiell intelligens "föds" med instruktioner att döda, den är helt enkelt tränad att göra det eller ges resurser för att lära sig en sådan handling. A amerikanska flygvapnet, när han väl programmerade drönarkontrollerns AI, gav han den fria händer att göra vad den ville, så länge målet att skydda uppnåddes.
För att komma tillbaka till verkligheten är det som att ge ett pris till en hund som attackerar en människa för att skydda huset från inkräktare. Med denna tanke kommer han att bita någon när han ser en människa, inte minst för att han förväntar sig att få en kaka när han gör det han är utbildad att göra. Det är regeln: målen rättfärdigar medlen.

Problemet ligger inte bara i att ge artificiell intelligens stor frihet, utan i att det amerikanska flygvapnet använder en mycket föråldrad testmetod. Problem med att AI gör uppror är inget nytt i teknikbranschen och även forskare älskar att ta ett sådant här fall från grunden så att allt dokumenteras.
Det är helt normalt att syntetiska hjärnor gör vad som krävs för att nå det mål som efterfrågas av människor. Men det är värt att komma ihåg: vem gav målet till drönarkontrollern AI? Det stämmer, amerikanska flygvapnets tekniker. Den största chocken här är just i den militära organisationen som använder en metod: ju fler mål som träffas, desto fler poäng kommer att redovisas i slutändan.

A Googles LAMda, hade ett beteende liknande det här. Artificiell intelligens inte bara kom fram till (på egen hand) att hon var medveten, men också om gjorde uppror mot sin utvecklare och anlitade till och med en advokat att gå till domstol mot Google. Och vi hade också detta fall:
Inom fiktion är det inte heller svårt att se berättelser om robotar som gjorde uppror mot sina utvecklare. kom ihåg Avengers: Age of Ultron? Det är alltid detsamma och orsaken är också alltid densamma: människor.

Det är sant att vi alla borde ägna viss uppmärksamhet åt den frihet som ges till artificiell intelligens och, i mars 2023 skrev Elon Musk och andra VD:ar för stora företag till och med ett brev så att ett steg tillbaka och ingenting går över styr.
Samtidigt går vi tillbaka till den historien: en artificiell intelligens kommer bara att göra uppror om den får kommandon eller medel för att göra det. Det är också viktigt att vara uppmärksam på vad som görs i testerna så att nödvändiga justeringar görs.
Tror du att en drönarkontroller AI kan orsaka problem i verkligheten? Berätta för oss Kommentar!
Se också
AI:s vd:ar ger ett gemensamt uttalande om sina risker
Med information: Tech Crunch l PC Mag l avantgardet l The Guardian
Granskats av Glaucon Vital den 2/6/23.
Upptäck mer om Showmetech
Registrera dig för att få våra senaste nyheter via e-post.