El presunto uso del modelo de inteligencia artificial desarrollado por Anthropic en el operativo estadounidense que culminó con la captura de Nicolás Maduro abrió un nuevo debate sobre la integración de esa tecnología en misiones militares de alto impacto. Aunque ni la empresa ni el Pentágono confirmaron oficialmente su participación, reportes señalan que la herramienta habría operado junto a sistemas de Palantir en tareas de análisis estratégico
Redacción Más
La inteligencia artificial dio un salto inédito en el terreno militar tras revelarse que Claude, el modelo desarrollado por Anthropic, habría sido utilizado en el operativo estadounidense que culminó con la captura del exdictador venezolano Nicolás Maduro en Caracas. El despliegue incluyó fuerzas especiales y el posterior traslado del exmandatario a Estados Unidos para enfrentar cargos por narcotráfico, lo que abrió un nuevo capítulo en la integración de sistemas de IA en misiones de seguridad nacional.
De acuerdo con información publicada por Infobae, la herramienta habría sido empleada en coordinación con sistemas de Palantir Technologies, proveedor habitual del Departamento de Defensa y agencias federales estadounidenses.

Ni Anthropic ni el Pentágono confirmaron oficialmente el papel de Claude en la operación, aludiendo a protocolos de confidencialidad.
Un portavoz de la empresa aseguró: “No podemos comentar si Claude, o cualquier otro modelo de IA, fue utilizado en alguna operación específica, clasificada o no”. Añadió que cualquier uso del sistema debe apegarse a las políticas internas que prohíben facilitar violencia, desarrollar armas o realizar tareas de vigilancia.
Según una fuente citada por Fox News Digital, la compañía monitorea tanto usos clasificados como no clasificados y confía en que sus lineamientos fueron respetados.
El operativo generó además tensiones políticas en Washington.
El presidente Donald Trump afirmó que la incursión mostró todo el poder militar de Estados Unidos, mientras reportes de The Wall Street Journal y Fox News señalaron que funcionarios evalúan el futuro del contrato entre Anthropic y el Departamento de Defensa, cuyo monto podría alcanzar los 200 millones de dólares.
El debate se intensificó por la postura del director ejecutivo de la compañía, Dario Amodei, quien ha abogado públicamente por regulaciones más estrictas para la IA y límites claros en su uso bélico. Según los reportes, una de las principales preocupaciones de la firma es evitar que su tecnología sea empleada en misiones letales autónomas o vigilancia doméstica.
En paralelo, la competencia tecnológica en defensa se acelera. Empresas como Google y OpenAI han impulsado soluciones para el sector militar, mientras el secretario de Defensa, Pete Hegseth, advirtió: “No emplearemos modelos de IA que no permitan librar guerras.” La declaración refleja la presión del gobierno estadounidense por contar con herramientas sin restricciones operativas en escenarios de conflicto.
Anthropic fue la primera desarrolladora de IA contratada oficialmente para operaciones clasificadas por el Departamento de Defensa, según los reportes citados. Sus sistemas pueden sintetizar grandes volúmenes de información, asistir en análisis estratégicos y coordinar plataformas autónomas. Sin embargo, la incursión en Venezuela, en la que siete militares estadounidenses resultaron heridos según Fox News Digital, coloca a Claude en el centro de un debate global sobre los límites éticos y regulatorios de la inteligencia artificial en la guerra.
Mientras Maduro permanece detenido en Nueva York, el caso marca un precedente: la IA ya no es sólo una herramienta de apoyo logístico o análisis de datos, sino un componente clave en operaciones militares de alto impacto.
Descubre más desde Más Información
Suscríbete y recibe las últimas entradas en tu correo electrónico.
