La Inteligencia Artificial ha transformado la ciberdelincuencia, generando nuevas estrategias para el robo de datos tanto de empresas como de individuos. A pesar de las innegables ventajas que la IA y otras tecnologías ofrecen en seguridad y protección de datos personales, especialmente para detectar enlaces y archivos infectados antes de su apertura, también han ampliado significativamente las oportunidades para ataques cibernéticos, como las estafas deepfake.
Entre estas estrategias inéditas de ciberataque, los deepfakes representan actualmente la amenaza más predominante y peligrosa. ¿Por qué? Porque son archivos de vídeo, imagen o voz manipulados con Inteligencia Artificial que simulan ser reales, dando la impresión de ver a la persona real en el montaje, cuando en realidad no lo es.
La emergencia de la inteligencia artificial en la ciberdelincuencia
El caso más reciente de deepfake involucró a la cantante pop estadounidense Taylor Swift, con la generación de imágenes falsas de ella sin ropa. Situaciones similares ocurrieron con Rosalía hace unos meses, y con Bad Bunny a finales del año pasado, cuando se creó una canción con su voz mediante IA que se volvió viral. Esto provocó un enfurecimiento por parte del artista puertorriqueño, quien sintió que se había vulnerado su voz e identidad.
Aunque a veces estas manipulaciones pueden parecer inofensivas y, en ocasiones, un tanto graciosas, representan un riesgo significativo para la integridad y seguridad de las personas. Un ejemplo reciente afectó a una empresa con sede en Reino Unido, cuyo nombre no ha trascendido.
Ataque deepfake en vivo: ¿Cómo es posible?
La multinacional sufrió un fraude en el que un empleado de su sede en Hong Kong fue engañado mediante un montaje pregrabado para transferir 26 millones de dólares durante una reunión en línea -lo cual parecía algo imposible de realizar-. Los atacantes utilizaron la técnica de deepfake para simular la presencia de directivos de la empresa, convenciendo al empleado de realizar 15 transacciones a cinco cuentas bancarias, sumando un total de 26 millones de dólares.
Ciertamente, esos directivos que aparecían en la videollamada estaban creados con la técnica deepfake. Los estafadores recopilaron imágenes, vídeos y audios con las voces e imágenes de la junta directiva con el fin de usarla en la llamada online, para hacerla creíble y no levantar sospechas. Sin embargo, lo que el empleado estaba visualizando en la reunión, no era más que un montaje.
Cómo una reunión virtual se convirtió en una estafa millonaria: el engaño con vídeos manipulados
El problema comenzó cuando estos directivos ordenaron al financiero que hiciese 15 transacciones a cinco cuentas bancarias. La cantidad del dinero solicitado sumaba un total de nada más y nada menos que 26 millones de dólares – unos 24 millones de euros-.
A pesar de las sospechas iniciales, la seguridad percibida en la videollamada llevó al empleado a proceder sin confirmar la autenticidad del encargo con la sede en Reino Unido.
La razón de esta falta de comunicación es la seguridad que la videollamada instauró en el empleado de Hong Kong al reconocer al supuesto director general y otros empleados de la multinacional -también creados mediante IA-.
Por desgracia, la estafa se descubrió solo después de realizar las transferencias, cuando el empleado consultó a la central de la empresa acerca del encargo secreto: se trataba de un engaño con vídeos manipulados.
El peligro de las estafas deepfake
La policía hongkonesa no ha revelado muchos datos en relación con el caso, únicamente que se han efectuado seis arrestos. Las autoridades han alertado a la población sobre el auge de este tipo de ciberataques, catalogándolos como muy peligrosos debido al grado de credibilidad y confianza que éstos ofrecen a las víctimas. Aquí te dejamos una guía sobre cómo detectar los deepfake.
Aunque este reciente caso ha afectado a una compañía, estas estafas de imágenes falsas con inteligencia artificial no discriminan a nadie: es fundamental que empresas y personas fortalezcan sus medidas de seguridad cibernética ante el aumento de los ciberataques que emplean la inteligencia artificial. Implementar prácticas como la autenticación de dos factores, educación en seguridad para empleados y actualizaciones de software son pasos clave para mitigar el riesgo.