Vad är en Deepfake? Allt du behöver veta
- Deepfakes använder artificiell intelligens för djupinlärning för att ersätta en persons likhet med en annan i video och andra digitala medier.
- Det finns farhågor om att deepfake-teknik kan användas för att skapa falska nyheter och vilseledande, förfalskade videor.
- Här är en primer om deepfakes – vad det är, hur det fungerar och hur det kan upptäckas.
Datorer har blivit allt bättre på att simulera verkligheten. Modern film, till exempel, förlitar sig starkt på datorgenererade uppsättningar, scenerier och karaktärer i stället för de praktiska platser och rekvisita som en gång var vanliga, och för det mesta går dessa scener i stort sett inte att skilja från verkligheten.
Den senaste tiden har deepfake- teknik skapat rubriker. Den senaste iterationen inom datorbilder, deepfakes skapas när artificiell intelligens (AI) programmeras för att ersätta en persons likhet med en annan i inspelad video.
Vad är en deepfake och hur fungerar det?
Termen "deepfake" kommer från den underliggande teknologin "deep learning", som är en form av AI. Algoritmer för djupinlärning, som lär sig själva hur man löser problem när de ges stora uppsättningar data, används för att byta ansikten i video och digitalt innehåll för att göra falska media med ett realistiskt utseende.
Det finns flera metoder för att skapa djupförfalskningar, men de vanligaste är beroende av användningen av djupa neurala nätverk som involverar autokodare som använder en teknik för ansiktsbyte. Du behöver först en målvideo att använda som grund för deepfake och sedan en samling videoklipp av personen du vill infoga i målet.
Videorna kan vara helt orelaterade; målet kan till exempel vara ett klipp från en Hollywood-film, och videorna på personen du vill infoga i filmen kan vara slumpmässiga klipp som laddats ner från YouTube.
Autoencodern är ett AI-program för djupinlärning som har till uppgift att studera videoklippen för att förstå hur personen ser ut från en mängd olika vinklar och miljöförhållanden, och sedan kartlägga den personen på individen i målvideon genom att hitta gemensamma egenskaper.
En annan typ av maskininlärning läggs till mixen, känd som Generative Adversarial Networks (GAN), som upptäcker och förbättrar eventuella brister i deepfake inom flera omgångar, vilket gör det svårare för deepfake-detektorer att avkoda dem.
GAN används också som en populär metod för att skapa deepfakes, som förlitar sig på studier av stora mängder data för att "lära sig" hur man utvecklar nya exempel som efterliknar den äkta varan, med smärtsamt korrekta resultat.
Flera appar och mjukvaror gör det enkelt att generera deepfakes även för nybörjare, som den kinesiska appen Zao, DeepFace Lab, FaceApp (som är en fotoredigeringsapp med inbyggd AI-teknik), Face Swap och den sedan borttagna DeepNude, en särskilt farlig app som genererade falska nakenbilder av kvinnor.
En stor mängd deepfake-programvara kan hittas på GitHub, en öppen källkodsgemenskap för mjukvaruutveckling. Vissa av dessa appar används för rena underhållningsändamål – vilket är anledningen till att skapande av djupt falskt inte är förbjudet – medan andra är mycket mer benägna att användas med uppsåt.
Många experter tror att deepfakes i framtiden kommer att bli mycket mer sofistikerade i takt med att tekniken utvecklas och kan introducera allvarligare hot mot allmänheten, relaterade till valinblandning, politisk spänning och ytterligare kriminell aktivitet.
Hur används deepfakes?
Även om möjligheten att automatiskt byta ansikten för att skapa trovärdig och realistiskt utseende syntetisk video har några intressanta godartade applikationer (som i film och spel), är detta uppenbarligen en farlig teknik med vissa problematiska applikationer. En av de första verkliga tillämpningarna för deepfakes var faktiskt att skapa syntetisk pornografi.
2017 skapade en reddit-användare vid namn "deepfakes" ett forum för porr som innehöll skådespelare med ansiktsbyte. Sedan dess har porr (särskilt hämndporr) upprepade gånger kommit ut i nyheterna, vilket allvarligt skadat kändisar och framstående personers rykte. Enligt en Deeptrace-rapport utgjorde pornografi 96% av deepfake-videor som hittades online 2019.
Deepfake-video har också använts i politiken. 2018 släppte till exempel ett belgiskt politiskt parti en video där Donald Trump håller ett tal där han uppmanade Belgien att dra sig ur klimatavtalet från Paris. Trump höll dock aldrig det talet – det var en djupförfalskning. Det var inte den första användningen av en deepfake för att skapa vilseledande videor, och tekniskt kunniga politiska experter rustar för en framtida våg av falska nyheter som innehåller övertygande realistiska deepfakes.
Naturligtvis utgör inte all deepfake video ett existentiellt hot mot demokratin. Det finns ingen brist på deepfakes som används för humor och satir, till exempel chips som svarar på frågor som hur skulle Nicolas Cage se ut om han medverkade i "Raiders of the Lost Ark"?
Är deepfakes bara videor?
Deepfakes är inte begränsade till bara videor. Deepfake audio är ett snabbt växande område som har ett enormt antal applikationer.
Realistiska ljuddeepfakes kan nu göras med hjälp av algoritmer för djupinlärning med bara några timmar (eller i vissa fall, minuter) av ljud från personen vars röst klonas, och när en modell av en röst har skapats kan den personen göras att säga något, som när falskt ljud från en VD användes för att begå bedrägerier förra året.
Deepfake audio har medicinska tillämpningar i form av röstersättning, såväl som i datorspelsdesign – nu kan programmerare tillåta in-game-karaktärer att säga vad som helst i realtid snarare än att förlita sig på en begränsad uppsättning skript som spelades in innan spelet publiceras.
Hur man upptäcker en deepfake
I takt med att deepfakes blir vanligare kommer samhället troligen kollektivt behöva anpassa sig till att upptäcka deepfake-videor på samma sätt som onlineanvändare nu är inställda på att upptäcka andra typer av falska nyheter.
Ofta, som är fallet med cybersäkerhet, måste mer deepfake-teknik dyka upp för att upptäcka och förhindra att den sprids, vilket i sin tur kan utlösa en ond cirkel och potentiellt skapa mer skada.
Det finns en handfull indikatorer som ger bort deepfakes:
- Aktuella deepfakes har problem med att realistiskt animera ansikten, och resultatet är video där motivet aldrig blinkar, eller blinkar alldeles för ofta eller onaturligt. Men efter att forskare vid University of Albany publicerade en studie som upptäckte den blinkande abnormiteten, släpptes nya djupförfalskningar som inte längre hade detta problem.
- Leta efter problem med hud eller hår, eller ansikten som verkar vara suddigare än miljön där de är placerade. Fokus kan se onaturligt mjukt ut.
- Ser belysningen onaturlig ut? Ofta kommer deepfake-algoritmer att behålla belysningen av klippen som användes som modeller för den falska videon, vilket är en dålig matchning för belysningen i målvideon.
- Ljudet kanske inte stämmer överens med personen, särskilt om videon var falsk men originalljudet inte var lika noggrant manipulerat.
Bekämpa deepfakes med teknik
Även om deepfakes bara blir mer realistiska med tiden när teknikerna förbättras, är vi inte helt försvarslösa när det gäller att bekämpa dem. Ett antal företag utvecklar metoder för att upptäcka deepfakes, flera av dem är startups.
Sensity, till exempel, har utvecklat en upptäcktsplattform som liknar ett antivirus för djupförfalskningar som varnar användare via e-post när de tittar på något som har tydliga fingeravtryck från AI-genererade syntetiska medier. Sensity använder samma djupa inlärningsprocesser som används för att skapa falska videor.
Operation Minerva har ett mer okomplicerat tillvägagångssätt för att upptäcka djupförfalskningar. Detta företags algoritm jämför potentiella djupförfalskningar med känd video som redan har "digitalt fingeravtryck". Till exempel kan den upptäcka exempel på hämndporr genom att inse att den deepfake-videon helt enkelt är en modifierad version av en befintlig video som Operation Minerva redan har katalogiserat.
Och förra året var Facebook värd för Deepfake Detection Challenge, ett öppet, samarbetsinitiativ för att uppmuntra skapandet av ny teknik för att upptäcka deepfakes och andra typer av manipulerade media. Tävlingen innehöll priser på upp till $500 000.