Disparan “deepfakes” estafas y pornografía

Ciudad de México, 02/10/24 (Más / IA).- Las herramientas de ‘deepfake’, basadas en inteligencia artificial (IA), han generado una proliferación alarmante de estafas y contenido pornográfico no consentido, según informes de varias organizaciones de ciberseguridad.

Los ‘deepfakes’ permiten manipular imágenes, audios y videos de personas, creando falsificaciones muy realistas, lo que ha convertido esta tecnología en una herramienta poderosa para la delincuencia digital.

El ‘deepfake’ es una tecnología basada en inteligencia artificial que permite crear videos, audios o imágenes falsos, pero altamente realistas, en los que se puede manipular la apariencia, los movimientos y las voces de personas, haciéndolas parecer como si estuvieran diciendo o haciendo algo que en realidad no hicieron. La palabra ‘deepfake’ es una combinación de ‘deep learning’ –que significa aprendizaje profundo, una rama avanzada de la inteligencia artificial– y ‘fake’, es decir falso.

Un informe reciente de la ONG Cyberpeace Institute revela que la pornografía con ‘deepfakes’ se duplica cada seis meses en plataformas de emisión en directo o ‘streaming’, mientras que los fraudes basados en esta tecnología aumentaron 10 veces entre 2022 y 2023 en varias industrias.

Stéphane Duguin, CEO de la organización, explicó que el 96 por ciento de los videos creados con ‘deepfakes’ están relacionados con contenido pornográfico no consentido, siendo usados para pornovenganza, extorsión y explotación infantil en línea.

“Los rostros de las víctimas se superponen al contenido explícito sin su consentimiento, convirtiendo a los deepfakes en una herramienta devastadora para ataques personales y explotación”, indicó Duguin en una entrevista con el diario ‘El País’. Este mal uso de la tecnología ha alarmado a expertos en ciberseguridad, quienes advierten que el avance de la IA está reinventando antiguos métodos delictivos.

Estafas y suplantación de identidad en aumento

Las estafas utilizando ‘deepfakes’ también han experimentado un crecimiento significativo.

Unit 42, la división de investigación de Palo Alto Networks, informó que grupos organizados están creando campañas fraudulentas con la imagen de celebridades o ejecutivos. Un ejemplo reciente es la plataforma falsa Quantum AI, que utilizó la imagen manipulada de figuras públicas como Elon Musk y la presidenta italiana, Georgia Meloni, para promover esquemas de inversión falsos.

En esta modalidad, las víctimas son persuadidas para registrarse en la plataforma y se les solicita un pago inicial de 250 dólares. Posteriormente, los estafadores manipulan a las víctimas para que inviertan más dinero y, al final, bloquean sus cuentas, embolsándose los fondos.

El uso de ‘deepfakes’ no solo afecta a individuos, sino también a empresas.

Los ciberdelincuentes clonan las voces de empleados o ejecutivos para autorizar transacciones financieras falsas o manipular facturas, según Cyberpeace Institute. Además, el fraude documental ha comenzado a utilizar esta tecnología para manipular identidades en pasaportes o documentos oficiales, vulnerando sistemas de reconocimiento facial y aumentando los riesgos para grupos de crimen organizado.

Una de las tendencias más preocupantes es la aparición de “empleados ‘deepfake’”, donde los criminales se hacen pasar por candidatos en entrevistas de trabajo para infiltrarse en empresas. Esto les permite acceder a datos sensibles y sistemas corporativos, incrementando el riesgo para las organizaciones.

Aunque gobiernos de todo el mundo están intentando regular la tecnología de IA, la legislación aún está en sus primeras etapas. La Ley de Inteligencia Artificial de la Unión Europea, aprobada en 2023, es un esfuerzo pionero en la regulación de los ‘deepfakes’, exigiendo mayor transparencia en el uso de estas tecnologías. Sin embargo, expertos como Raquel Jorge, del Real Instituto Elcano, advierten que aún queda mucho por hacer para codificar y aplicar estas normas de manera efectiva.

En un contexto en el que los ‘deepfakes’ se están volviendo cada vez más accesibles, el desafío para las autoridades y empresas es implementar medidas de seguridad que puedan anticiparse a los crecientes riesgos que plantea esta tecnología.


Descubre más desde Más Información

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario

Descubre más desde Más Información

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo