California, Estados Unidos, 12/05/26 (Más).- Google confirmó la detección del primer caso documentado en el que un grupo criminal utilizó inteligencia artificial para descubrir y explotar una vulnerabilidad inédita en un software ampliamente utilizado, marcando un nuevo escenario para la ciberseguridad mundial y encendiendo alertas entre especialistas tecnológicos sobre el crecimiento de ataques automatizados impulsados por IA.
El caso fue revelado por el equipo de inteligencia de amenazas de Google, que detectó una operación preparada para lanzar un ataque masivo contra servidores que utilizaban una herramienta de administración web cuyo nombre no fue revelado por razones de seguridad.
Según la compañía, los atacantes emplearon un modelo de inteligencia artificial para localizar una falla conocida como “zero-day”, es decir, una vulnerabilidad desconocida hasta el momento y para la cual no existía protección disponible.
De acuerdo con el reporte, la falla descubierta no correspondía a un error técnico convencional, sino a una contradicción lógica dentro del código de autenticación de dos factores del software afectado.
Un desarrollador había incorporado una excepción de confianza que permitía el acceso con credenciales válidas, debilitando así el esquema de seguridad diseñado originalmente para impedir intrusiones.
Especialistas de Google señalaron que herramientas automáticas tradicionales no suelen detectar este tipo de vulnerabilidades porque están enfocadas principalmente en errores de memoria o fallas de programación comunes.
Sin embargo, el modelo de inteligencia artificial logró analizar miles de líneas de código y comprender que existía una contradicción entre las reglas implementadas por el programador y el funcionamiento general del sistema de seguridad.
La compañía detectó el ataque debido a ciertos patrones inusuales presentes en el código utilizado por los criminales. Según el informe, el software malicioso incluía comentarios excesivamente ordenados, explicaciones detalladas y estructuras que parecían redactadas por una máquina más que por un hacker humano, lo que permitió atribuir el desarrollo del ataque al uso de inteligencia artificial.
Google evitó revelar el nombre específico del modelo utilizado por los atacantes, aunque aclaró que no se trataba de Gemini, desarrollado por la propia empresa, ni de Mythos, de Anthropic.
El documento también advierte sobre la existencia de un mercado gris de plataformas que ofrecen acceso ilegal o pirateado a modelos avanzados de IA mediante cuentas robadas o mecanismos automatizados para evadir restricciones de acceso.
El reporte menciona además la proliferación de herramientas y servicios clandestinos que permiten automatizar la creación de cuentas falsas, eludir sistemas CAPTCHA y mantener activos sistemas de inteligencia artificial avanzados para fines ilícitos. Según Google, esto facilita que grupos criminales accedan a tecnologías de alto nivel sin necesidad de pertenecer a grandes organizaciones especializadas.
John Hultquist, jefe de análisis del Grupo de Inteligencia de Amenazas de Google, advirtió que este caso representa apenas “la punta del iceberg” y anticipa una nueva etapa en la evolución de los ataques informáticos. El especialista afirmó que probablemente ya existan otras vulnerabilidades descubiertas mediante IA que aún no han sido detectadas por las empresas de seguridad.
El informe también documenta otros usos ofensivos de inteligencia artificial por parte de grupos cibernéticos internacionales. Entre ellos se mencionan hackers norcoreanos utilizando IA para automatizar la explotación de fallas conocidas y operadores chinos entrenando modelos con miles de vulnerabilidades históricas para acelerar la generación de ataques informáticos.
Asimismo, Google identificó programas maliciosos para Android capaces de interactuar en tiempo real con modelos de IA para decidir automáticamente qué acciones ejecutar dentro de dispositivos infectados. Este tipo de herramientas permitiría desarrollar malware adaptable y con capacidad de reacción autónoma frente a diferentes entornos digitales.
Especialistas consideran que el avance de la inteligencia artificial en el ámbito criminal representa un cambio radical para la seguridad informática global, ya que hasta ahora las empresas estaban preparadas para enfrentar ataques ejecutados por humanos con recursos limitados.
Con la incorporación de IA, los ataques pueden desarrollarse de manera continua, automatizada y a gran escala, reduciendo costos y multiplicando la velocidad con la que se descubren vulnerabilidades en sistemas digitales utilizados diariamente por millones de personas y empresas.
Descubre más desde Más Información
Suscríbete y recibe las últimas entradas en tu correo electrónico.
