Ir para o conteúdo principal

Segurança cibernética

1 de outubro de 2025

   

No combate ao cibercrime, os humanos precisam da IA — e a IA precisa dos humanos.

A tecnologia sozinha não consegue superar os cibercriminosos de hoje. O julgamento humano, moldado pela experiência, empatia e intuição, ajuda a conectar os pontos que as máquinas podem não perceber.

Colleagues look at a large screen with coding on it in an office.

Aimee Levitt

Contribuinte

Há alguns anos, um turista no México usou seu cartão de crédito para sacar dinheiro em um caixa eletrônico. Ao chegar em casa e consultar o extrato do cartão, ele percebeu que o cartão também havia sido usado para comprar diversas joias. Isso era estranho: ele não só não havia comprado nada com o cartão durante as férias, como a transação ocorreu cinco minutos depois do saque no caixa eletrônico — em uma loja do outro lado do país.

Felizmente, após analisar o caso, uma equipe do banco concordou que — embora as ferramentas de detecção de fraudes por IA não tivessem sinalizado a compra como suspeita — era altamente improvável que ele próprio tivesse comprado as joias, então reembolsaram a compra. Ao aprofundarem a investigação, a equipe determinou que os golpistas provavelmente roubaram as informações do cartão de crédito dele de um leitor escondido no caixa eletrônico e as enviaram para um cúmplice na costa oposta.

A facilidade, a rapidez e o anonimato dos pagamentos modernos deram origem a esquemas de fraude como este numa escala impossível de ser acompanhada pelos humanos. Felizmente, eles não precisam, já que os aplicativos de IA agora monitoram todas as transações e vigiam toda a rede de cartões em busca de ataques. Esses modelos de IA analisam os dados com mais eficiência do que qualquer ser humano conseguiria.

A Mastercard utiliza inteligência artificial há anos para detecção de fraudes e atualmente a usa para proteger mais de 159 bilhões de transações anualmente, evitando bilhões de dólares em perdas por fraude. No ano passado, a Mastercard adquiriu a Recorded Future, que usa inteligência artificial para analisar milhões de pontos de dados diariamente, identificando padrões e anomalias que sinalizam possíveis ameaças.

Mas, por mais que os humanos precisem da IA, a IA também precisa dos humanos. Embora as ferramentas automatizadas façam o trabalho pesado, para que os resultados sejam úteis, os desenvolvedores devem fornecer continuamente contexto da vida real — identificando novos tipos de fraude, determinando como evitá-la sem interromper a rede maior e programando as novas regras no algoritmo. É essa contribuição humana que transforma o poder bruto da IA em inteligência relevante e prática.

À medida que os modelos de IA e aprendizado de máquina se tornam mais poderosos, é tentador acreditar que a tecnologia sozinha pode superar os cibercriminosos de hoje, afirma Johan Gerber, chefe global de Soluções de Segurança da Mastercard. “Mas por trás de cada alerta, anomalia ou transação sinalizada, existe uma camada crucial e incremental que os algoritmos não conseguem replicar: o julgamento humano. Quando o julgamento humano é combinado com a IA, é isso que a torna verdadeiramente eficaz e garante que ela permaneça responsável.”

 

Lidando com o inesperado

Embora a IA seja projetada para discernir padrões sutis em grandes quantidades de dados, nem sempre está equipada para lidar com valores discrepantes. Sem supervisão humana, eventos inesperados podem desencadear ameaças não detectadas, alarmes falsos e outras distorções.

“Mesmo com essas ferramentas poderosas, você ainda precisa de pessoas”, diz Vince Haulotte, diretor de operações de mercado na área de decisões de risco e prevenção de fraudes da Mastercard. “É preciso ter cautela e levar em conta o contexto para garantir que a resposta da IA seja eficaz.”

 

Brett Thomson and Vince Haulotte sit on a sofa in Mastercard's St. Louis Tech Hub.

Brett Thomson, à esquerda, e Vince Haulotte são dois especialistas em segurança cibernética que ajudam os clientes da Mastercard a se defenderem de ataques em constante evolução em todo o mundo, a partir do centro tecnológico da empresa em St. Louis. (Crédito da foto: Mira Belgrave)

 

Por exemplo, sistemas de IA estavam monitorando o uso do cartão de crédito do viajante durante suas férias no México. Mas a IA precisava de um humano para lhe dizer que havia algo estranho em duas transações em rápida sucessão em lados opostos do país, e precisava de um humano para lhe mostrar como identificar incidentes semelhantes no futuro.

Para evitar que esse golpe específico afetasse outros clientes, Haulotte, então programador da plataforma de IA Brighterion , criou uma nova regra que sinalizaria transações geograficamente impossíveis. A Brighterion monitora as transações com cartão de crédito em tempo real, 24 horas por dia, 7 dias por semana, e as classifica de acordo com o nível de risco que aparentam; quando uma transação é sinalizada como potencialmente fraudulenta, o sistema notifica imediatamente o banco do usuário do cartão. (Cada banco pode personalizar o limite de pontuação para tomar medidas, como enviar um alerta ou até mesmo rejeitar a transação.) 

O Safety Net, outro produto da Mastercard, usa IA para monitorar toda a rede de cartões em busca de sinais de ataques. Por exemplo, se um site for inundado com milhares de novas contas em um curto período, isso pode ocorrer porque fraudadores estão sobrecarregando o site com spam para adivinhar números de cartão válidos por meio de força bruta.

É claro que um modelo de IA não sabe disso; ele não consegue necessariamente entender os detalhes mais sutis do comportamento humano. Consequentemente, isso também pode ser um sinal de alerta quando uma promoção bem-sucedida — ou, digamos, a Cyber Monday — causa um aumento repentino no tráfego de um site. Reconhecer a diferença é onde os humanos entram em cena.

“Com um aumento repentino de transações legítimas como essa, vou trabalhar em parceria com um gerente de contas para entender o que está acontecendo e tomar precauções para evitar alarmes falsos”, diz Brett Thomson, diretor de desenvolvimento de produtos da Safety Net. “Você precisa dar alguma direção à IA.”

 

Um jogo de gato e rato

Como as estratégias criminosas estão em constante evolução, a experiência humana também é essencial para identificar novas ameaças e determinar como detê-las. Assim que os golpistas percebem que suas estratégias não estão mais funcionando, eles elaboram novos esquemas. Mas, como a IA é treinada com dados passados, as ferramentas de monitoramento nem sempre detectam esses novos padrões imediatamente. Assim, cabe aos desenvolvedores humanos atualizar e treinar os algoritmos em um jogo contínuo de gato e rato.

“Depois que implementarmos uma medida de mitigação, eles mudarão sua estratégia.” "Então, vamos observar essa estratégia e adicionar uma nova medida de mitigação", diz Thomson. “É uma troca constante, cada um de nós observando como o outro reage ao próximo acontecimento.”

Essa dinâmica implacável garante que Thomson, Haulotte e seus colegas em todo o setor continuem sendo atores-chave na luta contra a fraude.

“Fico constantemente surpreso com a audácia e a imaginação dos fraudadores”, diz Haulotte. “Sempre surgem novas tendências de fraude, por isso temos que continuar criando novas soluções para nos mantermos à frente delas.” Nosso trabalho nunca para.” 

 

O que é inteligência de ameaças? Guia básico para manter as empresas seguras

A inteligência de ameaças utiliza IA e aprendizado de máquina para automatizar a coleta e análise de informações online, acelerando os tempos de resposta e reduzindo custos.