Mis on sügavvõltsing? Kõik, mida pead teadma
- Deepfakes kasutab süvaõppe tehisintellekti, et asendada videos ja muus digitaalses meedias ühe inimese sarnasus teisega.
- On muret, et sügavvõltsitud tehnoloogiat saab kasutada võltsuudiste ja eksitavate võltsvideote loomiseks.
- Siin on süvavõltsingute aabits – mis see on, kuidas see toimib ja kuidas seda tuvastada.
Arvutid on muutunud reaalsuse simuleerimisel üha paremaks. Näiteks kaasaegne kino toetub kunagi levinud praktiliste tegevuspaikade ja rekvisiitide asemel suurel määral arvutiga loodud võtteplatsidele, maastikele ja tegelaskujudele ning enamasti on need stseenid tegelikkusest suures osas eristamatud.
Hiljuti on deepfake- tehnoloogia jõudnud pealkirjadesse. Arvutipiltide uusim iteratsioon, sügavad võltsingud, luuakse siis, kui tehisintellekt (AI) on programmeeritud asendama salvestatud videos ühe inimese sarnasust teisega.
Mis on sügavvõlts ja kuidas see töötab?
Mõiste "deepfake" pärineb aluseks olevast tehnoloogiast "deep learning", mis on AI vorm. Süvaõppe algoritme, mis õpetavad ise lahendama probleeme suurte andmehulkade korral, kasutatakse video- ja digitaalsisu nägude vahetamiseks, et muuta realistlik võltsmeedia.
Süvavõltsingute loomiseks on mitu meetodit, kuid kõige levinum neist põhineb sügavate närvivõrkude kasutamisel, mis hõlmavad autoenkoodereid, mis kasutavad näovahetustehnikat. Esmalt vajate sihtvideot, mida kasutada sügavvõltsimise alusena, ja seejärel kogumit selle inimese videoklippe, kelle soovite sihtmärki lisada.
Videod võivad olla täiesti mitteseotud; sihtmärk võib olla näiteks klipp mõnest Hollywoodi filmist ja inimese videod, keda soovite filmi lisada, võivad olla YouTube'ist alla laaditud juhuslikud klipid.
Autoencoder on süvaõppega tehisintellekti programm, mille ülesandeks on uurida videoklippe, et mõista, milline inimene erinevatest vaatenurkadest ja keskkonnatingimustest välja näeb, ning seejärel kaardistada see inimene sihtvideos oleva inimesega, leides ühiseid jooni.
Segule on lisatud teist tüüpi masinõpe, mida tuntakse kui generatiivseid võistlevaid võrke (GAN), mis tuvastab ja parandab süvavõltsimise vigu mitme vooru jooksul, muutes sügava võltsingu detektoritel nende dekodeerimise raskemaks.
GAN-e kasutatakse ka populaarse meetodina süvavõltsingute loomiseks, tuginedes suurte andmemahtude uurimisele, et "õppida", kuidas arendada uusi näiteid, mis jäljendavad tegelikku asja valusalt täpsete tulemustega.
Mitmed rakendused ja tarkvarad muudavad süvavõltsingute loomise lihtsaks isegi algajatele, näiteks Hiina rakendus Zao, DeepFace Lab, FaceApp (mis on sisseehitatud tehisintellektiga fototöötlusrakendus), Face Swap ja sellest ajast eemaldatud DeepNude, mis on eriti ohtlik. rakendus, mis genereeris naiste võltsitud alastipilte.
GitHubist, tarkvaraarenduse avatud lähtekoodiga kogukonnast, leiate suure hulga sügavvõltsitud tarkvara. Mõnda neist rakendustest kasutatakse puhtalt meelelahutuslikel eesmärkidel – seetõttu pole süvavõltsingute loomine keelatud –, samas kui teisi kasutatakse pahatahtlikult.
Paljud eksperdid usuvad, et tulevikus muutuvad sügavvõltsingud tehnoloogia arenedes palju keerukamaks ja võivad avalikkusele tuua tõsisemaid ohte, mis on seotud valimistesse sekkumise, poliitilise pinge ja täiendava kuritegevusega.
Kuidas sügavvõltsinguid kasutatakse?
Kuigi võimalusel nägusid automaatselt vahetada, et luua usaldusväärse ja realistliku välimusega sünteetiline video, on huvitavaid healoomulisi rakendusi (nt kinos ja mängudes), on see ilmselgelt ohtlik tehnoloogia ja mõned murettekitavad rakendused. Üks esimesi reaalseid rakendusi sügavvõltsingute jaoks oli tegelikult sünteetilise pornograafia loomine.
- aastal lõi redditi kasutaja nimega "deepfakes" pornofoorumi, kus olid näoga vahetatud näitlejad. Sellest ajast peale on porno (eriti kättemaksuporno) korduvalt uudistesse sattunud, kahjustades tõsiselt kuulsuste ja prominentsete tegelaste mainet. Deeptrace'i aruande kohaselt moodustas pornograafia 96% 2019. aastal veebist leitud sügavvõltsitud videotest.
Deepfake videot on kasutatud ka poliitikas. Näiteks 2018. aastal avaldas üks Belgia erakond video Donald Trumpi kõnest, milles kutsus Belgiat Pariisi kliimaleppest välja astuma. Trump ei pidanud seda kõnet aga kunagi – see oli sügav võlts. See ei olnud esimene sügavvõltsingu kasutamine eksitavate videote loomiseks ja tehnikatundlikud poliitikaeksperdid valmistuvad tulevaseks võltsuudiste laineks, mis sisaldab veenvalt realistlikke sügavvõltsinguid.
Muidugi ei kujuta kõik sügavvõltsitud videod demokraatiale eksistentsiaalset ohtu. Huumori ja satiiri jaoks kasutatavatest süvavõltsingutest pole puudust, näiteks žetoonidest, mis vastavad küsimustele, nagu näeks Nicolas Cage välja, kui ta osaleks filmis "Kadunud laeva röövlid"?
Kas sügavad võltsingud on ainult videod?
Süvavõltsingud ei piirdu ainult videotega. Deepfake audio on kiiresti kasvav valdkond, millel on tohutult palju rakendusi.
Realistlikke helide süvavõltsinguid saab nüüd teha süvaõppe algoritme kasutades vaid mõne tunni (või mõnel juhul minuti) inimese heliga, kelle häält kloonitakse, ja kui häälemudel on tehtud, saab selle inimese luua. midagi öelda, näiteks kui tegevjuhi võltsheli kasutati eelmisel aastal pettuse sooritamiseks.
Deepfake helil on meditsiinilisi rakendusi nii hääle asendamise kui ka arvutimängude kujundamisel – nüüd saavad programmeerijad lubada mängusisestel tegelastel öelda midagi reaalajas, selle asemel, et tugineda piiratud hulgale skriptidele, mis salvestati enne mängu algust. avaldatud.
Kuidas tuvastada sügavvõltsingut
Kuna süvavõltsingud muutuvad üha tavalisemaks, peab ühiskond suure tõenäosusega kohanema süvavõltsitud videote märkamisega samamoodi, nagu võrgukasutajad on nüüd häälestunud avastama muid võltsuudiseid.
Sageli, nagu küberjulgeoleku puhul, peab selle tuvastamiseks ja leviku tõkestamiseks esile kerkima rohkem süvavõltsitud tehnoloogiat, mis võib omakorda vallandada nõiaringi ja tekitada rohkem kahju.
Seal on käputäis indikaatoreid, mis näitavad sügavaid võltsinguid:
- Praegustel süvavõltsingutel on probleeme nägude realistliku animeerimisega ja tulemuseks on video, milles objekt ei pilguta kunagi või vilgub liiga sageli või ebaloomulikult. Kuid pärast seda, kui Albany ülikooli teadlased avaldasid uuringu, mis tuvastas vilkumise ebanormaalsuse, ilmusid uued süvavõltsingud, millel seda probleemi enam ei olnud.
- Otsige probleeme naha või juustega või nägudega, mis tunduvad olevat hägusemad kui keskkond, milles nad asuvad. Fookus võib tunduda ebaloomulikult pehme.
- Kas valgustus tundub ebaloomulik? Sageli säilitavad sügavvõltsitud algoritmid võltsvideo mudelina kasutatud klippide valgustuse, mis sobib halvasti sihtvideo valgustusega.
- Heli ei pruugi tunduda inimesele vastavat, eriti kui video oli võltsitud, kuid originaalheli ei olnud nii hoolikalt manipuleeritud.
Süvavõltsingute vastu võitlemine tehnoloogia abil
Kuigi sügavvõltsingud muutuvad aja jooksul tehnikate paranedes realistlikumaks, pole me nendega võitlemisel täiesti kaitsetud. Paljud ettevõtted töötavad välja meetodeid sügavvõltsingute tuvastamiseks, mitmed neist on idufirmad.
Näiteks Sensity on välja töötanud tuvastusplatvormi, mis sarnaneb süvavõltsingute viirusetõrjega, mis hoiatab kasutajaid e-posti teel, kui nad vaatavad midagi, millel on tehisintellekti loodud sünteetilisest meediast märku andvad sõrmejäljed. Sensity kasutab samu sügavaid õppimisprotsesse, mida kasutatakse võltsvideote loomiseks.
Operatsioon Minerva kasutab sügavate võltsingute tuvastamisel sirgjoonelisemat lähenemisviisi. Selle ettevõtte algoritm võrdleb potentsiaalseid süvavõltsinguid teadaolevate videotega, millelt on juba digitaalselt võetud sõrmejäljed. Näiteks suudab see tuvastada kättemaksuporno näiteid, tuvastades, et sügavvõltsitud video on lihtsalt modifitseeritud versioon olemasolevast videost, mille Operation Minerva on juba katalooginud.
Ja eelmisel aastal korraldas Facebook Deepfake Detection Challenge, avatud koostööalgatuse, mille eesmärk oli julgustada uute tehnoloogiate loomist süvavõltsingute ja muud tüüpi manipuleeritud meedia tuvastamiseks. Konkursil oli auhindu kuni 500 000 dollarini.