...
🤳 Blog z wiadomościami na Androida poświęcony poradom ekspertów, wiadomościom, recenzjom, telefonom z Androidem, aplikacjom, instrukcjom, tabletom i telefonom komórkowym.

Co to jest Deepfake? Wszystko co musisz wiedzieć

4
  • Deepfake wykorzystują sztuczną inteligencję głębokiego uczenia się, aby zastąpić podobieństwo jednej osoby drugą w wideo i innych mediach cyfrowych. 
  • Istnieją obawy, że technologię deepfake można wykorzystać do tworzenia fałszywych wiadomości i wprowadzających w błąd, fałszywych filmów.
  • Oto wprowadzenie do deepfake – co to jest, jak działa i jak można go wykryć.

Komputery coraz lepiej symulują rzeczywistość. Na przykład współczesne kino opiera się w dużej mierze na generowanych komputerowo scenografiach, scenerii i postaciach zamiast praktycznych lokalizacji i rekwizytów, które kiedyś były powszechne, a przez większość czasu te sceny są w dużej mierze nie do odróżnienia od rzeczywistości. 

Ostatnio na pierwszych stronach gazet pojawiła się technologia deepfake . Najnowsza iteracja w obrazowaniu komputerowym, deepfake, powstaje, gdy sztuczna inteligencja (AI) jest zaprogramowana w celu zastąpienia podobizny jednej osoby inną w nagranym wideo. 

Co to jest deepfake i jak działa?

Termin „deepfake" pochodzi od technologii „głębokiego uczenia”, która jest formą sztucznej inteligencji. Algorytmy głębokiego uczenia, które same uczą się rozwiązywać problemy, gdy otrzymują duże zestawy danych, są wykorzystywane do zamiany twarzy w treściach wideo i cyfrowych w celu stworzenia realistycznie wyglądających fałszywych mediów. 

Istnieje kilka metod tworzenia deepfake'ów, ale najczęstsza opiera się na wykorzystaniu głębokich sieci neuronowych z wykorzystaniem autokoderów, które wykorzystują technikę zamiany twarzy. Najpierw potrzebujesz docelowego filmu wideo, który będzie podstawą deepfake, a następnie kolekcji klipów wideo osoby, którą chcesz wstawić do celu. 

Filmy mogą być całkowicie niepowiązane; celem może być na przykład klip z hollywoodzkiego filmu, a filmy osoby, którą chcesz umieścić w filmie, mogą być losowymi klipami pobranymi z YouTube. 

Autokoder to program AI do głębokiego uczenia się, którego zadaniem jest badanie klipów wideo w celu zrozumienia, jak dana osoba wygląda pod różnymi kątami i warunkami środowiskowymi, a następnie mapowanie tej osoby na osobę w docelowym filmie poprzez znalezienie wspólnych cech. 

Do mieszanki dodaje się jeszcze jeden rodzaj uczenia maszynowego, znany jako generatywne sieci przeciwstawne (GAN), który wykrywa i poprawia wszelkie wady deepfake'a w wielu rundach, co utrudnia ich dekodowanie przez detektory deepfake. 

Sieci GAN są również wykorzystywane jako popularna metoda tworzenia deepfake, polegająca na badaniu dużych ilości danych, aby „nauczyć się”, jak opracowywać nowe przykłady naśladujące rzeczywistość, z boleśnie dokładnymi wynikami. 

Kilka aplikacji i oprogramowania ułatwia generowanie deepfake nawet początkującym, na przykład chińska aplikacja Zao, DeepFace Lab, FaceApp (która jest aplikacją do edycji zdjęć z wbudowanymi technikami sztucznej inteligencji), Face Swap i od tego czasu usunięty DeepNude, szczególnie niebezpieczny aplikacja, która generowała fałszywe nagie zdjęcia kobiet. 

Dużą ilość oprogramowania typu deepfake można znaleźć na GitHub, społeczności open source zajmującej się tworzeniem oprogramowania. Niektóre z tych aplikacji są wykorzystywane wyłącznie do celów rozrywkowych — dlatego tworzenie deepfake nie jest zakazane — podczas gdy inne są znacznie bardziej narażone na złośliwe wykorzystanie. 

Wielu ekspertów uważa, że ​​w przyszłości deepfake staną się znacznie bardziej wyrafinowane w miarę rozwoju technologii i mogą wprowadzić poważniejsze zagrożenia dla społeczeństwa, związane z ingerencją w wybory, napięciami politycznymi i dodatkową działalnością przestępczą.

Jak wykorzystywane są deepfake?

Chociaż możliwość automatycznej zamiany twarzy w celu stworzenia wiarygodnego i realistycznie wyglądającego syntetycznego wideo ma kilka interesujących, łagodnych zastosowań (takich jak kino i gry), jest to oczywiście niebezpieczna technologia z niektórymi kłopotliwymi aplikacjami. Jedną z pierwszych rzeczywistych aplikacji do deepfake'ów było tworzenie syntetycznej pornografii.

W 2017 r. użytkownik reddita o nazwie „deepfakes” utworzył forum dla pornografii, na którym znaleźli się aktorzy z zamienionymi twarzami. Od tego czasu porno (zwłaszcza porno zemsty) wielokrotnie pojawiało się w wiadomościach, poważnie niszcząc reputację celebrytów i wybitnych osobistości. Według raportu Deeptrace, pornografia stanowiła 96% fałszywych filmów znalezionych online w 2019 roku.

Wideo Deepfake było również wykorzystywane w polityce. Na przykład w 2018 r. belgijska partia polityczna opublikowała wideo przedstawiające Donalda Trumpa wygłaszającego przemówienie wzywające Belgię do wycofania się z paryskiego porozumienia klimatycznego. Trump jednak nigdy nie wygłosił tego przemówienia – to był deepfake. To nie było pierwsze użycie deepfake'a do tworzenia wprowadzających w błąd filmów, a doświadczeni polityczni eksperci przygotowują się na przyszłą falę fałszywych wiadomości, które zawierają przekonująco realistyczne deepfake.

Oczywiście nie wszystkie filmy typu deepfake stanowią egzystencjalne zagrożenie dla demokracji. Nie brakuje deepfake'ów wykorzystywanych do humoru i satyry, takich jak żetony, które odpowiadają na pytania typu jak wyglądałby Nicolas Cage, gdyby pojawił się w „Poszukiwaczach zaginionej arki”?

Czy deepfake to tylko filmy?

Deepfake nie ograniczają się tylko do filmów. Deepfake audio to szybko rozwijająca się dziedzina, która ma ogromną liczbę zastosowań. 

Realistyczne podróbki dźwiękowe można teraz tworzyć za pomocą algorytmów głębokiego uczenia się z zaledwie kilkoma godzinami (lub w niektórych przypadkach minutami) dźwięku osoby, której głos jest klonowany, a po utworzeniu modelu głosu można stworzyć tę osobę do powiedzenia czegokolwiek, na przykład kiedy w zeszłym roku wykorzystano fałszywe nagranie dyrektora generalnego do popełnienia oszustwa.

Deepfake audio ma zastosowania medyczne w postaci zastępowania głosu, a także w projektowaniu gier komputerowych – teraz programiści mogą pozwolić postaciom w grze mówić cokolwiek w czasie rzeczywistym, zamiast polegać na ograniczonym zestawie skryptów, które zostały nagrane przed rozpoczęciem gry. opublikowany. 

Jak wykryć deepfake

Ponieważ deepfake stają się coraz bardziej powszechne, społeczeństwo najprawdopodobniej będzie musiało przystosować się do wykrywania filmów typu deepfake w taki sam sposób, w jaki użytkownicy online są teraz nastawieni na wykrywanie innych rodzajów fałszywych wiadomości. 

Często, tak jak w przypadku cyberbezpieczeństwa, musi pojawić się więcej technologii deepfake, aby wykryć i zapobiec jego rozprzestrzenianiu się, co z kolei może wywołać błędne koło i potencjalnie spowodować więcej szkód. 

Istnieje kilka wskaźników, które informują o deepfake:

  • Obecne deepfake mają problemy z realistyczną animacją twarzy, a rezultatem jest wideo, w którym osoba nigdy nie mruga lub mruga zbyt często lub nienaturalnie. Jednak po tym, jak naukowcy z University of Albany opublikowali badanie wykrywające anomalię mrugania, wydano nowe deepfake, które nie miały już tego problemu.
  • Szukaj problemów ze skórą lub włosami albo twarzami, które wydają się bardziej rozmyte niż otoczenie, w którym się znajdują. Ostrość może wyglądać nienaturalnie miękko. 
  • Czy oświetlenie wygląda nienaturalnie? Często algorytmy deepfake zachowują oświetlenie klipów, które były używane jako modele dla fałszywego wideo, co słabo pasuje do oświetlenia w docelowym filmie. 
  • Dźwięk może nie pasować do osoby, zwłaszcza jeśli wideo zostało sfałszowane, ale oryginalny dźwięk nie został tak starannie zmanipulowany. 

Zwalczanie deepfake'ów za pomocą technologii

Chociaż deepfake z czasem staną się bardziej realistyczne, gdy techniki się poprawią, nie jesteśmy całkowicie bezbronni, jeśli chodzi o ich zwalczanie. Wiele firm opracowuje metody wykrywania deepfake, z których kilka to startupy. 

Na przykład Sensity opracowało platformę wykrywania podobną do antywirusa dla deepfake, który ostrzega użytkowników za pośrednictwem poczty e-mail, gdy oglądają coś, co nosi charakterystyczne odciski palców generowanych przez sztuczną inteligencję nośników syntetycznych. Sensity korzysta z tych samych procesów głębokiego uczenia, które są używane do tworzenia fałszywych filmów.

Operacja Minerva ma prostsze podejście do wykrywania podróbek. Algorytm tej firmy porównuje potencjalne deepfake ze znanymi filmami, które zostały już „odciskane cyfrowo”. Na przykład może wykryć przykłady pornografii zemsty, rozpoznając, że wideo typu deepfake jest po prostu zmodyfikowaną wersją istniejącego filmu, który został już skatalogowany przez Operation Minerva.

W zeszłym roku Facebook był gospodarzem konkursu Deepfake Detection Challenge, otwartej, wspólnej inicjatywy mającej na celu zachęcenie do tworzenia nowych technologii do wykrywania deepfake i innych rodzajów zmanipulowanych mediów. W konkursie przewidziano nagrody sięgające nawet 500 000 $.

Źródło nagrywania: www.businessinsider.com

Ta strona korzysta z plików cookie, aby poprawić Twoje wrażenia. Zakładamy, że nie masz nic przeciwko, ale możesz zrezygnować, jeśli chcesz. Akceptuję Więcej szczegółów