ChatGPT e o perigo da industrialização do cibercrime potenciado por IA

ChatGPT

  • Em termos de cibersegurança, o bot de conversação ChatGPT assinala o início de uma nova fase das ameaças online em que, para já, os utilizadores precisam de treinar a sua capacidade de deteção humana para reconhecer situações de perigo.
  • O potencial de uso deste bot é virtualmente ilimitado, podendo ser usado por cibercriminosos para desenvolver emails de phishing e malware incrivelmente bem elaborados e difíceis de reconhecer sem tecnologias de neutralização.
  • Hackers já estão a conseguir que o ChatGPT produza ciberameaças para atingir qualquer alvo a qualquer momento – e embora o código gerado possa ainda não se comparar ao de grupos cibercriminosos estabelecidos, a automação por inteligência artificial reduz a barreira de entrada a agentes maliciosos menos experientes.

A rápida difusão e potencial de utilização de chatbots, ou bots de conversação, como o ChatGPT assinala a entrada numa nova fase de ciberameaças cada vez mais difíceis de detetar sem tecnologias de neutralização. A ESET alerta que a chegada ao grande-público de um dos primeiros exemplos reais de tecnologia de inteligência artificial (IA) gratuita e fácil de usar pode reduzir quer a capacidade de reconhecimento das ameaças pelos utilizadores, quer a barreira de entrada a novos agentes maliciosos que tiram partido da capacidade do ChatGPT para escrever emails de phishing e malware.

Já com mais de um milhão de utilizadores, o ChatGPT potenciado por IA mobiliza grandes volumes de dados na Internet para responder a questões com aparente autoridade, naturalidade e em múltiplas línguas, incluindo português europeu. Segundo a ESET, este tipo de automação está a tornar-se numa enorme ameaça para a segurança dos utilizadores, que precisam de treinar a sua capacidade de deteção humana para reconhecer situações de perigo enquanto as tecnologias de resposta não recuperarem terreno.

“O ChatGPT tem um potencial de uso virtualmente ilimitado e, nesse sentido, proporciona-se a aplicações de cibercrime,” comenta a propósito Ricardo Neves, Marketing Manager da ESET em Portugal. “Desde emails de phishing passando por malware incrivelmente bem elaborado e difícil de reconhecer, é provável que esta atividade potenciada por IA exponha mais utilizadores e dispositivos a ciberameaças. No entanto, o ChatGPT ainda está numa fase embrionária. Os utilizadores devem ficar atentos a erros suspeitos no texto que indiciem que se trata de uma tentativa de fraude.”

Hackers já estão a conseguir que o ChatGPT produza ciberameaças para atingir qualquer alvo a qualquer momento. Com a ajuda do ChatGPT, os emails de phishing podem conseguir manipular os utilizadores com padrões de comunicação ainda mais convincentes e sem erros gritantes. A criação de infostealers básicos também se pode tornar mais célere e avançada, corrigindo inclusive erros no código. E embora esse código ainda não se compare ao de grupos cibercriminosos estabelecidos, a automação por IA reduz a barreira de entrada a agentes maliciosos menos experientes.

À medida que ferramentas potenciadas por IA como o ChatGPT se tornam mais amplamente disponíveis, é provável que mais cibercriminosos comecem a usá-las. Já se conhecem exemplos disso, como o uso indevido de imagens geradas por IA em campanhas de desinformação. Para a ESET, a maior preocupação é a automação e escalabilidade desta tecnologia. Apesar de não existirem atualmente APIs oficiais do ChatGPT, existem opções criadas pela comunidade. Segundo a especialista em cibersegurança, isto tem o potencial de industrializar a criação e personalização de páginas web maliciosas, campanhas de phishing direcionadas e manobras de engenharia social, entre outras.

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here

9 − four =