Desconstruindo Deepfakes – Como eles funcionam e quais são os riscos?

Compartilhe!

Desconstruindo Deepfakes

No mês passado, a Microsoft lançou uma nova ferramenta de detecção de deepfake. Semanas atrás, a Intel lançou outro. À medida que mais e mais empresas seguem o exemplo e mais preocupações surgem sobre o uso dessa tecnologia, daremos uma olhada hoje para ver como essa tecnologia funciona e as questões políticas que ela levanta.

O que é um deepfake?

Um deepfake é uma gravação de vídeo, foto ou áudio que parece real, mas foi manipulada usando inteligência artificial (IA). A tecnologia subjacente pode substituir rostos, manipular expressões faciais, sintetizar rostos e sintetizar fala. Essas ferramentas são usadas com mais frequência para representar pessoas dizendo ou fazendo algo que nunca disseram ou fizeram.

Como funcionam os deepfakes?

Vídeos falsos geralmente trocam de rosto ou manipulam expressões faciais. A imagem abaixo ilustra como isso é feito. Na troca de rosto, o rosto da esquerda é colocado no corpo de outra pessoa. Na manipulação facial, as expressões do rosto à esquerda são imitadas pelo rosto à direita.

Troca de rosto e manipulação facial

Desconstruindo Deepfakes

Deepfakes dependem de redes neurais artificiais, que são sistemas de computador que reconhecem padrões nos dados. O desenvolvimento de uma foto ou vídeo deepfake normalmente envolve alimentar centenas ou milhares de imagens na rede neural artificial, “treinando-a” para identificar e reconstruir padrões – geralmente rostos.

Como você pode identificar um deepfake?

A figura abaixo ilustra algumas das maneiras de identificar um deepfake do real. Para saber mais sobre como identificar um deepfake e aprender sobre a tecnologia subjacente usada.

Quais são os benefícios dessas ferramentas?

Vozes e semelhanças desenvolvidas com a tecnologia deepfake podem ser usadas em filmes para obter um efeito criativo ou manter uma história coesa quando os próprios artistas não estão disponíveis. Por exemplo, nos últimos filmes de Star Wars, essa tecnologia foi usada para substituir personagens que haviam morrido ou para mostrar personagens como eles apareciam em sua juventude. Os varejistas também têm usado essa tecnologia para permitir que os clientes experimentem as roupas virtualmente.

Que riscos eles representam?

Apesar de tais aplicações benignas e legítimas, como filmes e comércio, deepfakes são mais comumente usados ​​para exploração. Alguns estudos mostraram que grande parte do conteúdo falsificado online é pornográfico, e a pornografia falsificada vitimiza desproporcionalmente as mulheres.

Também há preocupação com o crescimento potencial no uso de deepfakes para desinformação. Deepfakes podem ser usados ​​para influenciar eleições ou incitar a agitação civil, ou como uma arma de guerra psicológica. Eles também podem levar à desconsideração de evidências legítimas de irregularidades e, de forma mais geral, minar a confiança pública.

O que pode ser feito para proteger as pessoas?

Conforme discutido acima, pesquisadores e empresas de Internet, como Microsoft e Intel, experimentaram vários métodos para detectar deepfakes. Esses métodos normalmente usam IA para analisar os vídeos em busca de artefatos digitais ou detalhes que os deepfakes não conseguem imitar de forma realista, como piscar ou tiques faciais. Mas, mesmo com essas intervenções por parte das empresas de tecnologia, há uma série de questões de política sobre deepfakes que ainda precisam ser respondidas. Por exemplo:

  • O que pode ser feito para educar o público sobre os deepfakes para protegê-los e ajudá-los a identificar o real do falso?
  • Quais são os direitos dos indivíduos à privacidade no que diz respeito ao uso da tecnologia deepfake?
  • Quais são as proteções da Primeira Emenda que os criadores de vídeos, fotos e muito mais têm?

Deepfakes são ferramentas poderosas que podem ser usadas para exploração e desinformação. Com os avanços tornando-os mais difíceis de detectar, essas tecnologias exigem um olhar mais aprofundado.

Créditos: https://blog.gao.gov/

Compartilhe!