IA y defensa: el pulso entre Trump y Anthropic que sacude el mundo tech

El 28 de febrero, Estados Unidos e Israel bombardearon Irán con una particularidad incómoda: la operación fue ejecutada parcialmente con Claude, la inteligencia artificial de Anthropic, justo después de que Trump ordenara dejar de usarla por considerarla "woke". El incidente expone una realidad cruda: la IA se ha vuelto tan crítica en operaciones militares que prescindir de ella es casi imposible.
Cuando la política se cruza con la tecnología militar
La historia comienza hace meses, cuando Anthropic ofreció integrar Claude en los sistemas de defensa estadounidenses. El precio de entrada fue simbólico: un dólar. El contrato resultante alcanzó los 200 millones de dólares y transformó a Claude en una herramienta fundamental para el análisis masivo de datos en el Pentágono, trabajando en simbiosis con el software de Palantir.
Pero Anthropic impuso dos límites morales no negociables: Claude no podría usarse para vigilancia masiva de ciudadanos estadounidenses, ni para desarrollar o controlar sistemas de armas autónomos. Estos guardarriles fueron la causa del conflicto. Donald Trump y el Secretario de Defensa Pete Hegseth vieron estas restricciones como un obstáculo inaceptable y emitieron un ultimátum: o Anthropic entregaba una versión sin limitaciones, o enfrentaría consecuencias severas, incluyendo ser incluida en listas negras comerciales.
Dario Amodei, CEO de Anthropic, respondió con una carta que rechazaba el chantaje. Su posición era clara: apoyaría la defensa del país, pero no a costa de sus principios éticos. La respuesta de Trump no se hizo esperar: en su red social Truth Social, calificó a Anthropic como una "empresa de inteligencia artificial de izquierda radical" y ordenó a todas las agencias federales dejar de usar la tecnología de inmediato.
El orden que nadie obedeció
Aquí viene lo paradójico. Según reportes de The Wall Street Journal, comandos militares estadounidenses en todo el mundo, incluyendo el Comando Central en Oriente Medio, utilizaron las herramientas de Claude para evaluar la situación, identificar objetivos y simular escenarios de batalla durante la operación contra Irán. Es decir, la IA que fue "prohibida" fue exactamente la que ejecutó la misión.
¿Cómo es posible que el Pentágono desobedeciera una orden presidencial tan explícita? La respuesta es técnica pero reveladora: Claude está tan profundamente integrada en los sistemas de defensa estadounidenses que extraerla requeriría meses de trabajo. Se estima que tomaría al menos seis meses eliminar completamente los rastros de Claude del software militar, lo que significa que, en la práctica, el Pentágono optó por seguir usando lo que ya tenía mientras buscaba alternativas.
Este fenómeno es similar a lo ocurrido en Venezuela, donde Claude fue utilizada para capturar a Nicolás Maduro. La IA no es un lujo en las operaciones modernas; es una pieza central de la maquinaria militar. Y eso la hace prácticamente insustituible a corto plazo.
OpenAI entra al juego
Mientras Anthropic mantiene su postura ética, OpenAI ha identificado una oportunidad. El fabricante de ChatGPT emitió un comunicado señalando que Estados Unidos necesita modelos de IA para apoyar su defensa frente a adversarios globales. Curiosamente, OpenAI afirma respetar los mismos principios morales que Anthropic: no vigilancia doméstica masiva, no sistemas de armas autónomos, sin decisiones automáticas de alto riesgo.
La diferencia clave está en la interpretación. Mientras Anthropic se resiste a que el gobierno defina unilateralmente qué es "legal", OpenAI acepta que si el Departamento de Defensa determina que un uso es legal, entonces está permitido. Esta ambigüedad abre la puerta a interpretaciones amplias que podrían eludir los guardarriles éticos originales. Para el Pentágono, esto podría traducirse en una IA más "maleable" que la de Anthropic.
¿Por qué importa esto en Colombia y Latinoamérica?
En primer lugar, esta crisis revela dinámicas geopolíticas que afectan la región. El debate sobre qué controles éticos tener en sistemas de IA militar es global, no solo estadounidense. Países como Brasil, México y Colombia, que están desarrollando capacidades propias en defensa e inteligencia, observan atentamente cómo potencias dominantes negocian estos límites. Si OpenAI reemplaza a Anthropic y se abre más a usos militares amplios, eso establece un precedente que podría influir en cómo otros gobiernos abordan la IA en defensa.
En segundo lugar, Latinoamérica debe preocuparse por los usos de IA sin regulación clara. La región ya enfrenta desafíos de vigilancia estatal en Venezuela, Nicaragua y otros países. Si herramientas como Claude o ChatGPT se convierten en instrumentos sin restricciones éticas en manos de gobiernos autoritarios, los ciudadanos de la región podrían experimentar vigilancia a escala sin precedentes. Las compañías tecnológicas estadounidenses que se nieguen a establecer límites morales claro hoy podrían ser aliados de regímenes represivos mañana.
¿Qué sigue ahora?
El conflicto entre Trump y Anthropic es más que una pelea corporativa. Expone una pregunta incómoda: ¿qué tanto control ético debe tener una empresa tecnológica privada sobre herramientas que los gobiernos consideran esenciales para la seguridad nacional? La prohibición oficial de Claude en operaciones militares estadounidenses es, para muchos analistas, una ficción legal mientras la IA siga siendo usada en la práctica.
Lo que ocurra en los próximos meses será crucial. Si OpenAI obtiene los contratos del Pentágono, estaremos ante un cambio fundamental: el reemplazo de una empresa que se resiste a ceder sus principios éticos por otra que negocia con ellos. Eso no solo afectará a Estados Unidos, sino a cómo la IA se desplegará globalmente en contextos de defensa y, potencialmente, de represión.
Si quieres conocer otros artículos parecidos a IA y defensa: el pulso entre Trump y Anthropic que sacude el mundo tech puedes visitar la categoría Gadgets y Hardware.
Deja un comentario

Otros artículos que te podrían interesar