Mikä on Deepfake? Kaikki mitä sinun tarvitsee tietää
- Deepfakes käyttää syväoppivaa tekoälyä korvaamaan yhden henkilön kaltaisuuden toisella videossa ja muussa digitaalisessa mediassa.
- On huolestuttavaa, että syväväärennösteknologiaa voidaan käyttää valeuutisten ja harhaanjohtavien, väärennettyjen videoiden luomiseen.
- Tässä on pohjapiirros syväväärennöksistä – mitä se on, miten se toimii ja miten se voidaan havaita.
Tietokoneet ovat alkaneet simuloida todellisuutta yhä paremmin. Esimerkiksi nykyaikainen elokuva perustuu pitkälti tietokoneella luotuihin lavasteisiin, maisemiin ja hahmoihin aiemmin yleisten käytännöllisten paikkojen ja rekvisiittajen sijaan, ja suurimman osan ajasta näitä kohtauksia ei voi suurelta osin erottaa todellisuudesta.
Viime aikoina deepfake- tekniikka on noussut otsikoihin. Viimeisin iteraatio tietokonekuvissa, syvät väärennökset, luodaan, kun tekoäly (AI) ohjelmoidaan korvaamaan yhden henkilön kaltaisuus toisella tallennetussa videossa.
Mikä on deepfake ja miten se toimii?
Termi "deepfake" tulee taustalla olevasta teknologiasta "deep learning", joka on tekoälyn muoto. Syväoppimisalgoritmeja, jotka opettavat itse ratkaisemaan ongelmia, kun niille annetaan suuria datajoukkoja, käytetään videon ja digitaalisen sisällön kasvojen vaihtamiseen realistisen näköisen väärennetyn median luomiseksi.
On olemassa useita menetelmiä syväväärennösten luomiseen, mutta yleisin perustuu syvän neuroverkkojen käyttöön, joissa on mukana kasvojenvaihtotekniikkaa käyttäviä autoenkoodereita. Tarvitset ensin kohdevideon, jota käytetään syvän väärennöksen perustana, ja sitten kokoelman videoleikkeitä henkilöstä, jonka haluat lisätä kohteeseen.
Videot voivat olla täysin riippumattomia; kohde voi olla leike esimerkiksi Hollywood-elokuvasta, ja videot henkilöstä, jonka haluat lisätä elokuvaan, voivat olla YouTubesta ladattuja satunnaisia leikkeitä.
Autoencoder on syväoppiva tekoälyohjelma, jonka tehtävänä on tutkia videoleikkeitä ymmärtääkseen, miltä henkilö näyttää useista eri näkökulmista ja ympäristöolosuhteista, ja sitten kartoittaa tämä henkilö kohdevideon yksilöön etsimällä yhteisiä piirteitä.
Toinen koneoppimisen tyyppi on lisätty sekoitukseen, joka tunnetaan nimellä Generative Adversarial Networks (GAN), joka havaitsee ja parantaa syväväärennösten puutteet useilla kierroksilla, mikä vaikeuttaa syväväärennösten ilmaisimien purkamista.
GAN:ia käytetään myös suosittuna menetelmänä syväväärennösten luomiseen, sillä se luottaa suurten tietomäärien tutkimiseen "oppiakseen" kehittää uusia esimerkkejä, jotka jäljittelevät todellista asiaa tuskallisen tarkoilla tuloksilla.
Useat sovellukset ja ohjelmistot tekevät syväväärennösten luomisesta helppoa jopa aloittelijoille, kuten kiinalainen sovellus Zao, DeepFace Lab, FaceApp (joka on sisäänrakennetulla tekoälytekniikalla varustettu kuvankäsittelysovellus), Face Swap ja sen jälkeen poistettu DeepNude, erityisen vaarallinen. sovellus, joka loi väärennettyjä alastonkuvia naisista.
Suuri määrä deepfake-ohjelmistoja löytyy GitHubista, ohjelmistokehityksen avoimen lähdekoodin yhteisöstä. Joitakin näistä sovelluksista käytetään puhtaasti viihdetarkoituksiin – minkä vuoksi syväväärennösten luominen ei ole kiellettyä – kun taas toisia käytetään paljon todennäköisemmin haitallisesti.
Monet asiantuntijat uskovat, että tulevaisuudessa syväväärennöksistä tulee paljon kehittyneempiä, kun tekniikka kehittyy edelleen ja saattaa aiheuttaa vakavampia uhkia yleisölle, jotka liittyvät vaaleihin puuttumiseen, poliittiseen jännitteeseen ja rikolliseen toimintaan.
Miten syväväärennöksiä käytetään?
Vaikka kyky vaihtaa automaattisesti kasvoja luodakseen uskottavan ja realistisen näköisen synteettisen videon, sisältää mielenkiintoisia hyvänlaatuisia sovelluksia (kuten elokuvissa ja peleissä), tämä on tietysti vaarallinen tekniikka, jossa on joitakin huolestuttavia sovelluksia. Yksi ensimmäisistä tosielämän sovelluksista syvälle väärennöksille oli itse asiassa synteettisen pornografian luominen.
Vuonna 2017 reddit-käyttäjä nimeltä "deepfakes" loi pornofoorumin, jossa esiintyi kasvot vaihtaneita näyttelijöitä. Siitä lähtien porno (erityisesti kostoporno) on toistuvasti levittänyt uutisia ja vahingoittanut vakavasti julkkisten ja tunnettujen henkilöiden mainetta. Deeptracen raportin mukaan pornografia muodosti 96 % vuonna 2019 verkosta löydetyistä deepfake-videoista.
Deepfake-videota on käytetty myös politiikassa. Esimerkiksi vuonna 2018 belgialainen poliittinen puolue julkaisi videon Donald Trumpista pitämässä puhetta, jossa kehotettiin Belgiaa eroamaan Pariisin ilmastosopimuksesta. Trump ei kuitenkaan koskaan pitänyt tuota puhetta – se oli syvä väärennös. Tämä ei ollut ensimmäinen syväväärennösten käyttö harhaanjohtavien videoiden luomiseen, ja tekniikkaa taitavat poliittiset asiantuntijat valmistautuvat tulevaan valeuutisten aaltoon, joka sisältää vakuuttavan realistisia deepfakeja.
Tietenkään kaikki syväfake-videot eivät ole eksistentiaalinen uhka demokratialle. Huumoriin ja satiireihin käytettävistä syväväärennöksistä ei ole pulaa, kuten siruja, jotka vastaavat kysymyksiin, kuten miltä Nicolas Cage näyttäisi, jos hän esiintyisi elokuvassa "Raiders of the Lost Ark"?
Ovatko deepfakes vain videoita?
Deepfake ei rajoitu vain videoihin. Deepfake audio on nopeasti kasvava ala, jolla on valtava määrä sovelluksia.
Realistisia äänen syväväärennöksiä voidaan nyt tehdä käyttämällä syväoppimisalgoritmeja vain muutaman tunnin (tai joissain tapauksissa minuutin) äänellä sen henkilön äänellä, jonka ääntä kloonataan, ja kun äänimalli on tehty, tämä henkilö voidaan tehdä. sanoa mitään, kuten kun toimitusjohtajan väärennettyä ääntä käytettiin viime vuonna petokseen.
Deepfake-äänellä on lääketieteellisiä sovelluksia äänen korvaamisen muodossa sekä tietokonepelien suunnittelussa – nyt ohjelmoijat voivat antaa pelin sisäisten hahmojen sanoa mitä tahansa reaaliajassa sen sijaan, että luottaisivat rajoitettuun joukkoon skriptejä, jotka on tallennettu ennen pelin alkua. julkaistu.
Kuinka tunnistaa syväväärennös
Kun syväväärennökset yleistyvät, yhteiskunnan on todennäköisesti sopeuduttava havaitsemaan deepfake-videoita samalla tavalla kuin verkkokäyttäjät ovat nyt virittyneet havaitsemaan muunlaisia valeuutisia.
Usein, kuten kyberturvallisuudenkin tapauksessa, on kehitettävä lisää syväväärennösteknologiaa, jotta se havaitsee ja estää sen leviämisen, mikä puolestaan voi laukaista noidankehän ja mahdollisesti aiheuttaa enemmän haittaa.
On olemassa kourallinen indikaattoreita, jotka paljastavat syvät väärennökset:
- Nykyisillä syväväärennöksillä on vaikeuksia animoida kasvoja realistisesti, ja tuloksena on video, jossa kohde ei koskaan räpäytä tai räpyttää liian usein tai epäluonnollisesti. Kuitenkin sen jälkeen, kun Albanyn yliopiston tutkijat julkaisivat tutkimuksen, joka havaitsi vilkkumisen poikkeavuuden, julkaistiin uusia syväväärennöksiä, joissa tätä ongelmaa ei enää ollut.
- Etsi ihoon tai hiuksiin liittyviä ongelmia tai kasvoja, jotka näyttävät olevan sumeampia kuin ympäristö, jossa ne ovat. Tarkennus saattaa näyttää luonnottoman pehmeältä.
- Näyttääkö valaistus luonnottomalta? Deepfake-algoritmit säilyttävät usein valevideon mallina käytettyjen leikkeiden valaistuksen, mikä vastaa huonosti kohdevideon valaistusta.
- Ääni ei ehkä näytä vastaavan henkilöä, varsinkin jos video on väärennetty, mutta alkuperäistä ääntä ei ole käsitelty niin huolellisesti.
Taistele syväväärennöksistä tekniikan avulla
Vaikka syväväärennökset tulevat vain realistisemmiksi ajan myötä tekniikoiden kehittyessä, emme ole täysin puolustuskyvyttömiä niiden torjunnassa. Useat yritykset kehittävät menetelmiä syväväärennösten havaitsemiseksi, useat niistä ovat startuppeja.
Esimerkiksi Sensity on kehittänyt tunnistusalustan, joka muistuttaa syväväärennösten virustorjuntaa, joka varoittaa käyttäjiä sähköpostitse, kun he katsovat jotain, jossa on tekoälyn luoman synteettisen median sormenjälkiä. Sensity käyttää samoja syvällisiä oppimisprosesseja, joita käytetään väärennettyjen videoiden luomiseen.
Operaatio Minerva käyttää yksinkertaisempaa lähestymistapaa syväväärennösten havaitsemiseen. Tämän yrityksen algoritmi vertaa mahdollisia syväväärennöksiä tunnettuihin videoihin, joista on jo otettu "digitaalisesti sormenjäljet". Se voi esimerkiksi havaita esimerkkejä kostopornosta tunnistamalla, että syväfake-video on yksinkertaisesti muokattu versio olemassa olevasta videosta, jonka Operation Minerva on jo luetteloinut.
Ja viime vuonna Facebook isännöi Deepfake Detection Challenge -tapahtumaa, avointa yhteistoimintaa, jolla rohkaistaan luomaan uusia teknologioita syväväärennösten ja muun manipuloidun median havaitsemiseen. Kilpailussa jaettiin palkintoja 500 000 dollariin asti.