O que é um deepfake? Tudo o que você precisa saber
- Deepfakes usam inteligência artificial de aprendizado profundo para substituir a semelhança de uma pessoa por outra em vídeo e outras mídias digitais.
- Há preocupações de que a tecnologia deepfake possa ser usada para criar notícias falsas e vídeos falsos enganosos.
- Aqui está uma cartilha sobre deepfakes – o que é, como funciona e como pode ser detectado.
Os computadores estão ficando cada vez melhores em simular a realidade. O cinema moderno, por exemplo, depende muito de cenários, cenários e personagens gerados por computador no lugar dos locais e adereços práticos que antes eram comuns, e na maioria das vezes essas cenas são em grande parte indistinguíveis da realidade.
Recentemente, a tecnologia deepfake tem ganhado as manchetes. A mais recente iteração em imagens de computador, os deepfakes são criados quando a inteligência artificial (IA) é programada para substituir a imagem de uma pessoa por outra em vídeo gravado.
O que é deepfake e como funciona?
O termo “deepfake" vem da tecnologia subjacente “deep learning”, que é uma forma de IA. Algoritmos de aprendizado profundo, que ensinam sozinhos a resolver problemas quando recebem grandes conjuntos de dados, são usados para trocar rostos em vídeo e conteúdo digital para criar mídia falsa com aparência realista.
Existem vários métodos para criar deepfakes, mas o mais comum depende do uso de redes neurais profundas envolvendo autoencoders que empregam uma técnica de troca de face. Você primeiro precisa de um vídeo de destino para usar como base do deepfake e, em seguida, de uma coleção de videoclipes da pessoa que deseja inserir no destino.
Os vídeos podem ser completamente alheios; o alvo pode ser um clipe de um filme de Hollywood, por exemplo, e os vídeos da pessoa que você deseja inserir no filme podem ser clipes aleatórios baixados do YouTube.
O autoencoder é um programa de IA de aprendizado profundo encarregado de estudar os videoclipes para entender como a pessoa se parece a partir de uma variedade de ângulos e condições ambientais e, em seguida, mapear essa pessoa para o indivíduo no vídeo de destino, encontrando recursos comuns.
Outro tipo de aprendizado de máquina é adicionado à mistura, conhecido como Generative Adversarial Networks (GANs), que detecta e melhora quaisquer falhas no deepfake em várias rodadas, tornando mais difícil para os detectores de deepfake decodificá-los.
As GANs também são usadas como um método popular para a criação de deepfakes, contando com o estudo de grandes quantidades de dados para “aprender” a desenvolver novos exemplos que imitam a realidade, com resultados dolorosamente precisos.
Vários aplicativos e softwares facilitam a geração de deepfakes, mesmo para iniciantes, como o aplicativo chinês Zao, DeepFace Lab, FaceApp (que é um aplicativo de edição de fotos com técnicas de IA incorporadas), Face Swap e o DeepNude, um software particularmente perigoso app que gerava imagens nuas falsas de mulheres.
Uma grande quantidade de softwares deepfake pode ser encontrada no GitHub, uma comunidade open source de desenvolvimento de software. Alguns desses aplicativos são usados para fins puros de entretenimento – e é por isso que a criação de deepfake não é proibida – enquanto outros são muito mais propensos a serem usados de forma maliciosa.
Muitos especialistas acreditam que, no futuro, os deepfakes se tornarão muito mais sofisticados à medida que a tecnologia se desenvolver e poderão introduzir ameaças mais sérias ao público, relacionadas à interferência eleitoral, tensão política e atividades criminosas adicionais.
Como os deepfakes são usados?
Embora a capacidade de trocar rostos automaticamente para criar vídeos sintéticos críveis e realistas tenha alguns aplicativos benignos interessantes (como no cinema e nos jogos), essa é obviamente uma tecnologia perigosa com alguns aplicativos problemáticos. Uma das primeiras aplicações do mundo real para deepfakes foi, de fato, criar pornografia sintética.
Em 2017, um usuário do reddit chamado “deepfakes” criou um fórum para pornografia que apresentava atores com rostos trocados. Desde então, a pornografia (particularmente a pornografia de vingança) foi repetidamente notícia, prejudicando gravemente a reputação de celebridades e figuras proeminentes. De acordo com um relatório da Deeptrace, a pornografia representou 96% dos vídeos deepfake encontrados online em 2019.
O vídeo deepfake também tem sido usado na política. Em 2018, por exemplo, um partido político belga divulgou um vídeo de Donald Trump fazendo um discurso pedindo que a Bélgica se retirasse do acordo climático de Paris. Trump nunca fez esse discurso, no entanto – foi um deepfake. Esse não foi o primeiro uso de um deepfake para criar vídeos enganosos, e especialistas políticos experientes em tecnologia estão se preparando para uma futura onda de notícias falsas que apresentam deepfakes convincentemente realistas.
É claro que nem todos os vídeos deepfake representam uma ameaça existencial à democracia. Não faltam deepfakes sendo usados para humor e sátira, como chips que respondem a perguntas como como seria Nicolas Cage se ele aparecesse em “Os Caçadores da Arca Perdida”?
Deepfakes são apenas vídeos?
Deepfakes não se limitam apenas a vídeos. O áudio deepfake é um campo em rápido crescimento que possui um enorme número de aplicativos.
Deepfakes de áudio realistas agora podem ser feitos usando algoritmos de aprendizado profundo com apenas algumas horas (ou em alguns casos, minutos) de áudio da pessoa cuja voz está sendo clonada e, uma vez que um modelo de voz é feito, essa pessoa pode ser feita para dizer qualquer coisa, como quando o áudio falso de um CEO foi usado para cometer fraude no ano passado.
O áudio deepfake tem aplicações médicas na forma de substituição de voz, bem como no design de jogos de computador – agora os programadores podem permitir que os personagens do jogo digam qualquer coisa em tempo real, em vez de depender de um conjunto limitado de scripts que foram gravados antes do jogo ser lançado. Publicados.
Como detectar um deepfake
À medida que os deepfakes se tornam mais comuns, a sociedade coletivamente provavelmente precisará se adaptar para detectar vídeos deepfake da mesma forma que os usuários on-line agora estão sintonizados para detectar outros tipos de notícias falsas.
Muitas vezes, como é o caso da segurança cibernética, mais tecnologia deepfake deve surgir para detectar e impedir que ela se espalhe, o que pode desencadear um ciclo vicioso e potencialmente criar mais danos.
Há um punhado de indicadores que revelam deepfakes:
- Os deepfakes atuais têm problemas para animar rostos de forma realista, e o resultado é um vídeo em que o assunto nunca pisca, ou pisca com muita frequência ou de maneira não natural. No entanto, depois que pesquisadores da Universidade de Albany publicaram um estudo detectando a anormalidade do piscar, foram lançados novos deepfakes que não apresentavam mais esse problema.
- Procure problemas com a pele ou cabelo, ou rostos que pareçam mais desfocados do que o ambiente em que estão posicionados. O foco pode parecer anormalmente suave.
- A iluminação não parece natural? Muitas vezes, os algoritmos de deepfake retêm a iluminação dos clipes que foram usados como modelos para o vídeo falso, o que é uma correspondência ruim para a iluminação do vídeo de destino.
- O áudio pode parecer não corresponder à pessoa, especialmente se o vídeo foi falsificado, mas o áudio original não foi manipulado com tanto cuidado.
Combatendo deepfakes com tecnologia
Embora os deepfakes só fiquem mais realistas com o tempo à medida que as técnicas melhoram, não estamos totalmente indefesos quando se trata de combatê-los. Várias empresas estão desenvolvendo métodos para detectar deepfakes, várias delas sendo startups.
A Sensity, por exemplo, desenvolveu uma plataforma de detecção semelhante a um antivírus para deepfakes que alerta os usuários por e-mail quando estão assistindo a algo que contém impressões digitais reveladoras de mídia sintética gerada por IA. Sensity usa os mesmos processos de deep learning usados para criar vídeos falsos.
A Operação Minerva adota uma abordagem mais direta para detectar deepfakes. O algoritmo desta empresa compara potenciais deepfakes a vídeos conhecidos que já foram “digitalmente impressos”. Por exemplo, ele pode detectar exemplos de pornografia de vingança reconhecendo que o vídeo deepfake é simplesmente uma versão modificada de um vídeo existente que a Operação Minerva já catalogou.
E no ano passado, o Facebook sediou o Deepfake Detection Challenge, uma iniciativa aberta e colaborativa para incentivar a criação de novas tecnologias para detectar deepfakes e outros tipos de mídia manipulada. A competição contou com prêmios que variam de até US $ 500.000.