DeepFakes: Quando não basta ver para acreditar

Será que o mundo, tal como o conhecemos, está preparado para o verdadeiro impacto das deepfakes?

As deepfakes estão cada vez mais fáceis e rápidas de criar e estão a abrem a porta a um novo modelo de crime informático. Embora os vídeos falsos ainda sejam vistos como relativamente prejudiciais ou até humorísticos, esta mania pode assumir uma forma sinistra de futuro e ser o centro de escândalos políticos, crimes informáticos e tantos outros cenários inimagináveis envolvendo vídeos falsos – e não apenas dirigidos a figuras públicas.

Uma deepfake é uma técnica de síntese de imagens de pessoas baseada na inteligência artificial para criar conteúdo falso a partir do zero ou mediante o uso de vídeo existente concebido para replicar o aspeto e sons de uma pessoa real. Estes vídeos podem parecer incrivelmente reais e, atualmente, muitos deles envolvem celebridades ou figuras públicas a dizerem algo ultrajante ou falso.

Investigações recentes mostram um crescente aumento na criação de vídeos deepfake, números que quase duplicaram on-line nos últimos nove meses. As deepfakes estão a melhorar significativamente no que respeita à sua qualidade. Este vídeo que mostra Bill Hader a transformar-se sem esforço algum no Tom Cruise e Seth Rogan é apenas um exemplo do quão autênticos esses vídeos podem parecer. Se pesquisar no YouTube por “deepfake”, rapidamente irá ter um vislumbre da ponta do iceberg do que está ainda para vir.

De facto, já vimos a tecnologia deepfake a ser utilizada numa fraude, onde uma voz, completamente falsa, foi usada para enganar um CEO e extorquir uma grande quantia de dinheiro. Acredita-se que o CEO de uma empresa britânica pensou que estava a falar com o CEO da sua filial alemã e deu ordem de transferência de 220 mil euros para a conta de bancária de um fornecedor húngaro. Se foi tão fácil enganar alguém e conseguir o que queria via telefone, certamente será necessária melhor segurança para mitigar este tipo de ameaças.

Engano a olho nu

Também vimos aplicações a fazer deepnudes, isto é, a pegar em fotos de pessoas vestidas e a transformá-las em fotos em topless, em segundos. Embora, e felizmente, uma aplicação em particular, o DeepNude, tenha sido colocada off-line, e se ela voltar com outro formato e for capaz de criar vídeos convincentes que parecem mesmo autênticos?

Existem também evidências de que a produção destes vídeos está a tornar-se um negócio lucrativo, em especial na indústria da pornografia. A BBC refere mesmo que “96% desses vídeos utilizam semelhanças do corpo de celebridades do sexo feminino para que constem em vídeos de sexo explícito – sem o seu conhecimento, ou consentimento”.

Um recente projeto de lei na Califórnia deu um salto de fé e tornou ilegal a criação de um deepfake pornográfico de alguém sem o seu consentimento, com uma multa de 150 mil dólares. Mas é provável que nenhuma legislação seja suficiente para impedir algumas pessoas de produzir os vídeos.

Um anúncio da Economist refere que para criar uma deepfake convincente é necessária uma série de vídeos e/ou gravações de voz para fazer mesmo um pequeno clipe deepfake. Eu queria desesperadamente criar uma deepfake de mim próprio, mas, infelizmente, não tendo muitas horas de filmes de mim próprio, não consegui fazer uma deepfake do meu rosto.

Dito isto, num futuro não muito distante, pode ser inteiramente possível através de algumas “stories” do Instagram para criar um deepfake que convenças a maioria dos seguidores online. Poderemos vir a assistir a alguns vídeos inimagináveis de pessoas mais próximas – o chefe, colegas, familiares. Para além disso, as deepfakes também poderão ser usadas ​​para o bullying nas escolas, no escritório ou irem ainda mais longe.

Para além disso, os hackers irão utilizar este tipo de tecnologia para fazer spearphish das suas vítimas. As deepfakes ficam cada vez mais baratas de criar e tornam-se quase impossíveis de detetar apenas com o olho humano. Como resultado, toda esta falsidade poderia facilmente enlamear a água entre os factos e a ficção, o que por sua vez poderá levar-nos a não confiar em nada – mesmo quando os nossos sentidos nos dizem para acreditar.

Lidar com uma ameaça muito real

Então, o que pode ser feito para nos prepararmos para essa ameaça? Primeiro, precisamos educar melhor as pessoas sobre a existência de deepfakes, como funcionam e os possíveis danos que podem causar. Todos nós precisamos de aprender a lidar com esta realidade, pois até os vídeos mais realistas a que assistimos podem não passar de fabricações totais.

Em segundo lugar, é desesperadamente necessário o desenvolvimento de uma tecnologia que viabilize uma melhor deteção de deepfakes. Já existem pesquisas a avançar neste sentido, mas não estão ainda nem perto de onde deveria estar. Embora o aprendizado de máquina esteja no centro de sua criação, é necessário que exista algo que atue como antídoto capaz de as detetar sem depender apenas do olho humano.

Finalmente, as plataformas de redes sociais precisam perceber que há uma enorme ameaça com o impacto das deepfakes, porque quando se mistura um vídeo chocante com as publicações mais comuns das redes sociais, o resultado tende a espalhar-se muito rapidamente, e potencialmente pode ter um impacto muito negativo na sociedade.

Devemos permanecer cientes de como a tecnologia por vezes nos pode afetar de forma muito prejudicial, especialmente quando o machine learning amadurece a um ritmo mais rápido do que nunca. Caso contrário, em breve veremos as deepfakes a tornarem-se deepnorms com efeitos de longo alcance.

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here

18 − thirteen =