Golpistas online já estão usando modelos de aprendizagem de linguagem (LLMs) para escrever e-mails de phishing mais convincentes e direcionados, e fazem isso em uma escala muito maior do que jamais conseguiriam sem ferramentas de inteligência artificial.
Acabaram-se os tempos dos e-mails genéricos e mal escritos que até a pessoa menos entendida de tecnologia conseguia identificar como golpes. Golpistas que não são falantes nativos de inglês agora são profissionais em aprimorar suas mensagens com LLMs (Living Liability Mechanics - Membras de Aprendizagem de Libre).
E mesmo aqueles golpistas que se fazem passar por soldados solitários estacionados no exterior, promovendo uma oportunidade de negócio que parece boa demais para ser verdade (porque realmente é), estão incluindo detalhes pessoais extraídos por IA para tornar essas mensagens muito mais convincentes.
Eles também foram além do e-mail, enviando suas comunicações, agora bem elaboradas, para mídias sociais, mensagens de texto e até mesmo ligações telefônicas.
Ao mesmo tempo, houve um aumento nas mensagens fraudulentas contendo deepfakes de áudio ou vídeo. No ano passado, um trabalhador em Hong Kong foi enganado e pagou US$ 25 milhões a golpistas depois de se inscrever no que ele pensava ser uma videochamada com funcionários de sua empresa multinacional, incluindo o diretor financeiro. Mas descobriu-se que as outras pessoas na chamada eram recriações deepfake em vídeo ao vivo dessas pessoas.
Os consumidores também têm sido alvo de golpes com deepfakes de áudio. É aí que os cibercriminosos usam IA para criar deepfakes das vozes de pessoas, geralmente mais jovens, e depois usam a voz imitada para ligar para familiares, dizendo que foram sequestrados ou estão na prisão, para extorquir dinheiro deles.
Tudo isso tem deixado empresas e consumidores compreensivelmente assustados. Um estudo recente realizado para a Mastercard entrevistou cerca de 13.000 consumidores em todo o mundo, incluindo cerca de 1.000 nos EUA, e descobriu que o conteúdo falso gerado por IA é a principal preocupação futura dos consumidores em relação a golpes. Mas apenas 13% dos entrevistados disseram ter muita confiança em sua capacidade de identificar ameaças ou golpes gerados por IA caso sejam alvo deles.
A grande maioria dos entrevistados citou especificamente preocupações com ataques mais sofisticados de sistemas de IA que são invadidos e transformados em softwares maliciosos, ciberataques automatizados em larga escala e e-mails de phishing mais convincentes criados por IA.
E consumidores preocupados podem representar grandes problemas para as empresas que os atendem. Se os consumidores não puderem confiar que estão lidando com uma empresa legítima ou que suas informações pessoais estão seguras, eles podem optar por fazer negócios com outra empresa.