Cómo la inteligencia artificial puede impulsar el crimen cibernético
No toda inteligencia artificial (IA) está relacionada necesariamente a un programa que intenta comportarse como un ser humano. Las “inteligencias” creadas a partir del “aprendizaje de máquina” (machine learning) y del aprendizaje profundo (deep learning) pueden ser capaces de hacer cosas buenas que resultarían demasiado complejas para un ser humano, pero también fallan de forma desastrosa —incluso cómica, a veces— en algunos requisitos.
Es por eso que el potencial de esa tecnología aún sorprende, ya sea de forma positiva o negativa. Recién después de entrenar una IA para un fin específico es que podremos saber si será capaz de sobresalir en la tarea que le asignamos.
Pero, más allá de todo eso, ya podemos tener una idea de cómo los delincuentes digitales pueden emplear la inteligencia artificial en estafas en internet, incluso para perfeccionar la ingeniería social.
Deepfakes y conversaciones con IA
Cuando se trata de imitar a alguien, a las IA, en general, les va muy bien. De hecho, una IA puede copiar voces, rostros y hasta estilos artísticos. Es por eso, incluso, que tenemos el deepfake, o sea, el contenido falso impulsado por el deep learning.
En 2022, autoridades de Estados Unidos advirtieron que algunos delincuentes estaban usando deepfakes de voces de ejecutivos para concertar reuniones virtuales con colaboradores de empresas. En esas reuniones, los delincuentes solicitaban la realización de pagos y transferencias fraudulentas.
Y en 2024, la policía de Hong Kong informó que un colaborador de una empresa había transferido USD 25 millones a delincuentes. Según el relato de la policía, el valor se había solicitado en una videoconferencia. ¡Esto significa que el fraude evolucionó de la voz al vídeo en tan solo dos años!
No todos los fraudes de esta categoría involucran cifras millonarias. En realidad, cualquier usuario de internet puede terminar conversando con un robot (chatbot). Hay muchos fraudes en los que el estafador intenta convencer a la víctima a bajar un software peligroso o a transferir dinero, ya sea para (supuestamente) aprovechar una “oportunidad”, ayudar a un familiar o evitar una situación embarazosa (el famoso chantaje).
Los robots pueden conducir esas conversaciones de forma casi autónoma, lo que permite aumentar significativamente el número de víctimas abordadas.
Phishing personalizado
Así como los robots conducen conversaciones con humanos, las IA se pueden usar para enviar mensajes personalizados para cada víctima de un phishing. Tradicionalmente, todas las víctimas de una campaña de phishing recibían el mismo mensaje.
Sin embargo, la IA logra personalizar hasta mensajes de phishing en gran escala. Cada interacción o publicación en red social de una víctima se puede analizar de forma automática, identificándose intereses, la profesión de la víctima y hasta mapeándose su red de amistades.
Con esos datos, la IA puede crear mensajes únicos para cada blanco, ampliando la diseminación de los famosos "spear phishings", mensajes fraudulentos dirigidos específicamente a aquel destinatario.
¿Qué cambia la IA en cuanto a cómo defenderse de los fraudes?
Conocer las categorías de fraudes y cómo funcionan nos ayuda a tener una buena idea de cómo actúan los delincuentes. Sin embargo, lo más importante es recordar que, ante una situación sospechosa, existe la posibilidad de que se trate de un fraude perpetrado con IA.
Antes de la IA y de los deepfakes, los fraudes personalizados y con imágenes y voces falsas eran poco frecuentes. Desgraciadamente, ya no se puede bajar la guardia en esas situaciones. Una videoconferencia por sí sola —sobre todo con quien nunca hayas conversado antes— no necesariamente prueba la legitimidad de un pedido.
Aun así, en general, los fraudes nos dan algunos indicios de que hay algo sospechoso, sobre todo porque los delincuentes necesitan convencernos a tomar actitudes inesperadas. En efecto, ya sea al solicitarnos que entremos a un enlace que no conocemos o que transfiramos el dinero de un pago que no estaba planeado, el fraude muchas veces nos desvía de la rutina habitual.
En caso de dudas, se debe buscar algo que confirme la veracidad del contacto. Investigar en la web sobre la existencia de fraudes parecidos puede ayudar, pero no debes descartar una sospecha solo por no encontrar otro fraude idéntico. A fin de cuentas, la originalidad es una de las características de los fraudes con IA.
Ese conocimiento debe llevarte a desconfiar de mensajes o solicitudes que antes podrían parecer legítimas. Tu intuición —especialmente cuando una comunicación involucre a personas que conozcas bien— puede ser la mejor arma para defenderte de esas estafas.