Open AI contra la china DeepSeek

Washington, D.C., 29/01/25 (Más / IA).- OpenAI sospecha que DeepSeek, una startup china de inteligencia artificial, ha utilizado los resultados de sus modelos avanzados para entrenar su propio modelo de código abierto, lo que ha generado preocupación en la industria y en el gobierno de Estados Unidos.

Según un informe del Financial Times, OpenAI ha identificado indicios de que DeepSeek podría haber recurrido a la “destilación”, una técnica en la que un modelo de IA más pequeño aprende a partir de los resultados de un modelo más avanzado.

De acuerdo con Bloomberg, OpenAI y su principal socio, Microsoft, están investigando si DeepSeek accedió a la API de OpenAI para realizar esta práctica, lo que violaría los términos y condiciones de la empresa estadounidense.

El Financial Times también señala que OpenAI bloqueó varias cuentas sospechosas de usar la API para destilar información el año pasado, algunas de las cuales podrían haber pertenecido a DeepSeek.

El asunto cobró notoriedad luego de que David Sacks, designado como “zar de la IA” por el expresidente Donald Trump, declarara a Fox News que había evidencia sustancial de que DeepSeek estaba utilizando modelos de OpenAI para su propio desarrollo.

Sacks advirtió que en los próximos meses las principales empresas de inteligencia artificial estadounidenses tomarán medidas para prevenir la destilación, lo que podría desacelerar la aparición de modelos similares en el mercado.

El caso ha llegado a la Casa Blanca, donde la secretaria de prensa, Karoline Leavitt, confirmó que el Consejo de Seguridad Nacional está revisando el impacto de DeepSeek en la seguridad de Estados Unidos. “Esta es una llamada de atención para la industria de inteligencia artificial estadounidense”, afirmó.

La destilación es una técnica en la que un modelo de IA más pequeño, denominado modelo del estudiante, se entrena utilizando los resultados de un modelo más avanzado, llamado modelo del profesor. Este método permite optimizar el rendimiento del modelo más pequeño con un menor uso de recursos informáticos.

Compañías como OpenAI, Anthropic y Google emplean esta estrategia para mejorar sus propios modelos. Sin embargo, el problema surge cuando un tercero utiliza esta técnica con modelos avanzados de una empresa sin su autorización, lo que constituye una violación de los términos de servicio. En el caso de OpenAI, sus políticas prohíben el uso de sus resultados para desarrollar modelos que compitan con la empresa.

Las empresas pueden tomar varias medidas para dificultar la destilación por parte de terceros, como restringir el acceso a sus modelos mediante el bloqueo de cuentas sospechosas, la prohibición de direcciones IP o la imposición de límites a las consultas realizadas a su API. Sin embargo, no está claro si estas acciones serían suficientes para evitar por completo la extracción de información mediante este método.

En respuesta a la controversia, OpenAI declaró a Fox News que ha implementado contramedidas para proteger su propiedad intelectual y que trabajará estrechamente con el gobierno de Estados Unidos para evitar que competidores y adversarios accedan a su tecnología.

La reacción de OpenAI no ha estado exenta de críticas. Mike Masnick, fundador del medio especializado TechDirt, cuestionó la postura de la empresa. “Estoy seguro de que soy una minoría aquí en Bluesky que cree que entrenar sistemas de IA no es una infracción de derechos de autor. Pero, además, amigo, no hay forma de que OpenAI pueda presentar este argumento sin parecer muy, muy tonto”, comentó.

El debate sobre la destilación y el acceso a modelos de IA se ha convertido en un punto clave en la competencia global por la inteligencia artificial, con implicaciones no solo tecnológicas, sino también económicas y geopolíticas.


Descubre más desde Más Información

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario

Descubre más desde Más Información

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo