Index
O VASA-1 är den senaste AI från Microsoft, designad för att skapa hyperrealistiska deepfakes från ett enda foto eller teckning av en person. Verktyget imponerar med sin förmåga att exakt återge ansiktsuttryck och huvudrörelser, vilket ger en illusion av att personen på bilden faktiskt uttrycker något. I demonstrationer som presenteras av Microsoften VASA-1 imponerad av att replikera läpprörelser synkroniserade med ljudet och skapa uttryck som inte finns i originalbilderna, vilket resulterar i extremt övertygande videor.
Det nya verktyget väcker farhågor om den etiska användningen av deepfake-teknologier, eftersom dess förmåga att skapa realistiska videor med lite indata potentiellt kan användas för att skapa falska nyheter, ärekränkande videor och till och med bluffar. Därför Microsoft arbetar för att säkerställa att VASA-1 användas ansvarsfullt och etiskt.
Vad är VASA-1 och hur fungerar det?
Det verkar sant, men videon ovan är bara en deepfake. Den VASA-1 representerar ett betydande framsteg när det gäller att skapa realistiska talande ansikten genom artificiell intelligens. O VASA-1 kan producera videor av pratande ansikten från en enda stillbild, vare sig det är ett foto eller en teckning, av en individ och ett ljudklipp med tal. Dessa resulterande videor har inte bara läpprörelser synkroniserade med ljudet, utan också ett brett utbud av naturliga ansiktsdynamik och huvudrörelser, vilket ger en hög nivå av realism och livlighet.
Till skillnad från tidigare metoder VASA-1 närmar sig genereringen av talande ansikten holistiskt, med tanke på alla möjliga ansiktsrörelser, såsom uttryck, ögonrörelser och blinkningar, som unika latenta variabler. Dessutom VASA-1 inkorporerar valfria konditionerande ledtrådar, såsom primär blickriktning, huvudavstånd och känslomässig förskjutning, i inlärningsprocessen. Detta gör generativ modellering av komplexa distributioner mer kontrollerbar och ökar generationsredovisningen. I videon nedan, till exempel VASA-1 visade olika blickriktningsalternativ i deepfake.
En av de mest imponerande aspekterna av VASA-1 är dess förmåga att generera talande ansikten i realtid, vilket gör den idealisk för interaktiva kommunikationstillämpningar. Genom att balansera videogenereringskvalitet med beräkningseffektivitet, VASA-1 Det överträffar avsevärt befintliga metoder och för oss närmare en framtid där AI-drivna digitala avatarer kan interagera med oss lika naturligt och intuitivt som interaktioner med riktiga människor.
Representationen av VASA-1 kan ändra utseende, tredimensionell position av huvudet och ansiktsdynamik, vilket möjliggör separat kontroll av attribut och redigering av genererat innehåll. Detta innebär att det, även med en enda ingångsbild, är möjligt att generera videor av pratande ansikten med olika rörelsesekvenser eller använda olika bilder på samma rörelsesekvens, vilket resulterar i en mängd olika anpassningsmöjligheter och kontroll över det genererade innehållet.
Farorna med deepfakes

O VASA-1, trots dess möjliga positiva tillämpningar, innebär det också betydande risker relaterade till skapandet av deepfakes. Denna teknik kan missbrukas för att skapa extremt övertygande falska videor där en person avbildas när han gör eller säger något som aldrig hänt. Dessa djupa förfalskningar har potential att orsaka allvarlig skada, som att sprida desinformation, manipulera allmänna åsikter, förtala individer och till och med anstifta sociala eller politiska konflikter.
Speciellt under valperioder kan tekniken skapa problem som uppstår från skadlig användning med skapelser av politiska deepfakes. Med denna teknik är det möjligt att skapa videor av politiker eller offentliga personer som håller falska tal eller utför kompromissande handlingar. Dessa videor kan användas för att påverka val, undergräva allmänhetens förtroende för ledare och institutioner och skapa politisk instabilitet.
Användningen av Deepfakes har väckt uppmärksamhet och oro hos flera regeringar runt om i världen. I Brasilien har TSE förbjöd användningen av deepfakes i val, med åtgärden som godkändes i februari i år. Detta förbud syftar till att förhindra manipulation av information och skydda integriteten i valprocessen, förhindra att falska videor och ljudfiler används för att skada eller gynna kandidater. Den felaktiga användningen av deepfakes kan resultera i återkallande av mandatet eller registrering av kandidatur.
Kina, i synnerhet, har banat väg för omfattande reglering av användningen av dessa tekniker. Dess lagstiftning, som är bredare än den som antagits av vissa västerländska regeringar, ses som ett instrument för att upprätthålla social stabilitet. Det förbjuder uttryckligen skapandet av deepfakes utan samtycke och kräver tydlig identifiering av AI-genererat innehåll.
Ett alarmerande exempel inträffade efter den ryska invasionen av Ukraina, när en deepfake-video spreds flitigt på sociala medier. I den verkade den ukrainske presidenten Volodymyr Zelensky beordra sina trupper att kapitulera, något som faktiskt aldrig hände. Dessutom kan deepfakes användas mer allmänt i vardagliga situationer, som att skapa falska videor av kändisar, vänner eller familj, skapa förvirring och skada ryktet för de inblandade.
släpp prognos

A Microsoft erkänner de risker som är förknippade med VASA-1 och är engagerad i att säkerställa att verktyget utvecklas och används på ett ansvarsfullt sätt. På grund av de potentiella etiska, integritets- och säkerhetsproblem som VASA-1 kan generera Microsoft Det finns inget releasedatum för allmänheten ännu.
Företaget arbetar aktivt med att implementera säkerhets- och kontrollåtgärder som hjälper till att minska riskerna för missbruk av teknik. Utvecklare arbetar för att förbättra äktheten hos genererade videor och utveckla metoder för deepfake-detektering som kan hjälpa till att bekämpa missbruk av tekniken, innan de överväger att släppa den till allmänheten.
Se denna och andra nyheter på Showmetech TRIO:
Veja também:
källor: PCMag, Microsoft e Shorts
Granskats av Glaucon Vital den 22/4/24.
Upptäck mer om Showmetech
Registrera dig för att få våra senaste nyheter via e-post.