1 de octubre de 2025
Hace unos años, un turista en México usó su tarjeta de crédito para sacar efectivo de un cajero automático. Cuando llegó a casa y miró el extracto de su tarjeta, vio que la tarjeta también se había usado para comprar varias piezas de joyería. Esto era extraño: no solo no había comprado nada con la tarjeta durante las vacaciones, sino que la transacción se había realizado cinco minutos después del retiro del cajero — en una tienda al otro lado del país.
Afortunadamente, tras revisar su caso, un equipo de su banco acordó que — aunque sus herramientas de detección de fraude por IA no habían señalado la compra como sospechosa — era muy improbable que él mismo hubiera comprado las joyas, por lo que devolvieron el dinero de la compra. A medida que investigaban más, el equipo determinó que probablemente los estafadores habían robado la información de su tarjeta de crédito de un lector oculto en el cajero automático y la habían enviado a un cómplice en la costa opuesta.
La facilidad, rapidez y anonimato de los pagos modernos ha dado lugar a esquemas de fraude como este a una escala que es imposible para los humanos seguir. Por suerte, no es necesario, ya que las aplicaciones de IA ahora monitorizan cada transacción y vigilan toda la red de tarjetas ante si hay ataques. Estos modelos de IA clasifican los datos de forma más eficiente que cualquier humano.
Mastercard lleva años utilizando la IA para la detección de fraudes y actualmente la emplea para asegurar más de 159.000 millones de transacciones anuales, evitando miles de millones de dólares en pérdidas por fraude. El año pasado, Mastercard adquirió Recorded Future, que utiliza IA para analizar millones de datos diarios, identificando patrones y anomalías que señalan amenazas potenciales.
Pero por mucho que los humanos necesiten la IA, la IA también necesita a los humanos. Mientras que las herramientas automatizadas hacen el trabajo pesado, para que los resultados sean útiles, los desarrolladores deben proporcionar continuamente contexto real — identificando nuevos tipos de fraude, determinando cómo prevenirlo sin interrumpir la red más amplia y programando las nuevas reglas en el algoritmo. Esta aportación humana es lo que convierte el poder bruto de la IA en inteligencia relevante y práctica.
A medida que los modelos de IA y aprendizaje automático se vuelven más potentes, resulta tentador pensar que la tecnología por sí sola puede superar a los ciberdelincuentes actuales, dice Johan Gerber, responsable global de Soluciones de Seguridad de Mastercard. "Pero detrás de cada alerta, anomalía o transacción marcada hay una capa crucial e incremental que los algoritmos no pueden replicar: el juicio humano. Cuando el juicio humano se combina con la IA, eso es lo que la hace realmente efectiva y garantiza que siga siendo responsable."
Aunque la IA está diseñada para detectar patrones sutiles en grandes cantidades de datos, no siempre está preparada para manejar casos atípicos. Sin supervisión humana, los eventos inesperados podrían desencadenar amenazas pasadas por alto, falsas alarmas y otras distorsiones.
"Incluso con estas herramientas tan potentes, aún se necesitan personas", dice Vince Haulotte, director de entrega en el mercado de la división de fraude y decisiones de riesgo de Mastercard. "Hay que poner un poco de cautela y tener en cuenta el contexto para asegurarse de que la respuesta de la IA sea efectiva."
Brett Thomson, a la izquierda, y Vince Haulotte son dos expertos en ciberseguridad que ayudan a los clientes de Mastercard a defenderse de ataques en constante evolución alrededor del mundo desde el centro tecnológico de St. Louis de la compañía. (Crédito de la foto: Mira Belgrave)
Por ejemplo, los sistemas de IA monitorizaban el uso de tarjetas de crédito del viajero durante sus vacaciones en México. Pero la IA necesitaba que un humano le dijera que había algo raro en dos transacciones en rápida sucesión en lados opuestos del país, y necesitaba a un humano que le mostrara cómo estar atento a incidentes similares en el futuro.
Para evitar que esta estafa en particular afectara a otros clientes, Haulotte, entonces programador que trabajaba en la plataforma de IA Brighterion , creó una nueva norma que marcaba transacciones geográficamente imposibles. Brighterion monitoriza las transacciones con tarjeta de crédito en tiempo real, las 24 horas del día, los 7 días de la semana, y las califica según lo arriesgadas que parezcan; Cuando una transacción se marca como potencialmente fraudulenta, el sistema notifica inmediatamente al banco del usuario de la tarjeta. (Cada banco puede personalizar el umbral de puntuación para tomar medidas, como enviar una alerta o incluso rechazar la transacción.)
Safety Net, otro producto de Mastercard, utiliza IA para monitorizar toda la red de tarjetas en busca de señales de ataques. Por ejemplo, si un sitio web se inunda con miles de cuentas nuevas en poco tiempo, podría ser porque los estafadores están spameando el sitio para adivinar números de tarjeta válidos a la fuerza bruta.
Por supuesto, un modelo de IA no lo sabe ; No necesariamente puede entender los detalles más finos del comportamiento humano. Como resultado, también podría levantar una alerta cuando una promoción exitosa —o, por ejemplo, el Cyber Monday— provoca un aumento del tráfico de un sitio. Reconocer la diferencia es donde entran los humanos.
"Con un aumento de transacciones genuinas como esa, colaboraré con un gestor de cuentas para entender qué está ocurriendo y tomar precauciones para evitar falsas alarmas", dice Brett Thomson, director de desarrollo de producto en Safety Net. "Tienes que darle alguna dirección a la IA."
Dado que las estrategias criminales evolucionan continuamente, la experiencia humana también es esencial para identificar nuevas amenazas y determinar cómo detenerlas. En cuanto los estafadores se dan cuenta de que sus estrategias ya no funcionan, idean nuevos esquemas. Pero dado que la IA se entrena con datos pasados, las herramientas de monitorización no siempre detectan estos nuevos patrones de inmediato. Así que depende de los desarrolladores humanos actualizar y entrenar los algoritmos en un juego continuo de gato y ratón.
"Después de que pongamos una mitigación, cambiarán de estrategia. Entonces notaremos esa estrategia y añadiremos una nueva mitigación", dice Thomson. "Es un ir y venir constante, cada uno observando cómo reacciona el otro ante el siguiente acontecimiento."
Esta dinámica implacable asegura que Thomson, Haulotte y sus colegas de toda la industria sigan siendo actores clave en la lucha contra el fraude.
"Me sorprende continuamente la audacia e imaginación de los estafadores", dice Haulotte. "Siempre hay nuevas tendencias de fraude, así que tenemos que seguir construyendo nuevas soluciones para adelantarnos. Nuestro trabajo nunca se detiene."