Utilizaram IA para imitar a voz do CEO e roubaram 220 mil euros

No passado dia 30 de agosto o Wall Street Journal publicou a história de um caso que ocorreu em março deste ano, em que criminosos utilizaram um software baseado em Inteligência Artificial (IA) para imitar a voz do CEO de uma empresa de energia alemã e assim levar adiante o roubo de 220.000 euros.

De acordo com o meio, os criminosos utilizaram esta tecnologia para se fazerem passar pelo diretor executivo de uma multinacional alemã e enganar o CEO de uma das suas sedes, no Reino Unido, que acreditou estar a falar ao telefone com o seu chefe e ter reconhecido o ligeiro acento alemão na sua voz. Assim, o suposto CEO da empresa alemã solicitou ao CEO da sede britânica a realização de um pagamento urgente a um fornecedor da Hungria.

Os criminosos voltaram a comunicar com a vítima fazendo-se passar novamente pelo CEO alemão para lhe assegurar que a transferência seria reembolsada, e contactaram-no ainda uma terceira vez – antes do suposto reembolso – para solicitar uma terceira transferência urgente. Nesse momento, o diretor executivo da sede britânica começou a desconfiar e recusou-se a fazer a transferência.

Segundo explicou o especialista em cibersegurança da ESET, Jake Moore, é de esperar que num futuro próximo assistamos a um aumento de crimes informáticos onde se utilizem técnicas de machine learning. De facto, “já vimos DeepFakes a imitar celebridades e outras figuras públicas em vídeo”, explicou Moore. Embora a criação de peças convincentes através de vídeo exija mais tempo e recursos, “para produzir vozes falsas são necessárias apenas algumas gravações, e na medida em que a capacidade de processamento dos equipamentos aumenta começaremos a ver que estas peças serão cada vez mais fáceis de criar”, acrescentou o especialista da ESET.

O Facebook e algumas empresas como a Microsoft e várias universidades dos Estados Unidos conscientes desta tendência manifestaram a sua preocupação com o anúncio do lançamento do desafio “Deepfake Detection Challenge (DFDC)”, uma iniciativa que visa combater o fenómeno crescente das deepfakes e que premeia quem seja capaz de desenvolver uma tecnologia que possa ser utilizada por qualquer pessoa que tenha a capacidade de detetar o uso de inteligência artificial para gerar vídeos adulterados.

A divulgação de casos como o do golpe que o Wall Street deu a conhecer é útil para aumentar a consciência e para que todos estejam mais preparados para enfrentar o que pode significar esta tendência e uma das possíveis formas de evolução das técnicas de engenharia social. Neste sentido, para evitar ser vítima de um golpe no qual é imitada a voz de uma pessoa de confiança, Moore diz que existem algumas medidas a considerar para minimizar os riscos de cair numa armadilha. Em primeiro lugar, ter consciência que é possível que alguém fazer-se passar por uma pessoa legítima ao imitar a sua voz. Uma vez que sabemos que isto é possível podemos, por exemplo, incluir algumas medidas de verificação antes de realizar uma transferência de dinheiro. Por exemplo, verificar que o número origem pertence à pessoa que se apresenta e dizer à pessoa que está do outro lado que devolverá a chamada, claro que marcando de forma manual o número de telefone que tem na sua agenda.

1 COMENTÁRIO

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here

2 + five =