IA en guerra: Anthropic vetada por el Pentágono, OpenAI toma su lugar

El Pentágono cumplió su amenaza el viernes 27 de febrero: vetó a Anthropic después de que la empresa rechazara aceptar aplicaciones militares sin restricciones de su modelo Claude. OpenAI, que sí aceptó las condiciones, se convierte en el nuevo proveedor de inteligencia artificial para las Fuerzas Armadas estadounidenses.
Qué pasó: la encrucijada de Anthropic
La historia es más que un simple rechazo corporativo. Durante semanas, el Pentágono presionó a Anthropic para que permitiera el uso ilimitado de Claude en aplicaciones que van desde vigilancia civil masiva hasta sistemas de armas autónomas. Anthropic, la empresa fundada por Dario Amodei, se mantuvo firme en su posición: no. Consideraban que estos usos violaban sus principios fundamentales de seguridad en IA.
Con el vencimiento del ultimátum, el Departamento de Defensa estadounidense no dudó en actuar. El secretario de Guerra, Pete Hegseth, clasificó oficialmente a Anthropic como un "riesgo para la cadena de suministro", la misma categoría que ha utilizado históricamente con empresas de países rivales como Huawei. Es un golpe sin precedentes en la industria tecnológica occidental.
Las consecuencias son inmediatas y severas: rescisión de contratos valorados en hasta 200 millones de dólares, prohibición para cualquier contratista o proveedor del Pentágono de hacer negocios con Anthropic, y un período de seis meses para la transición tecnológica. El presidente de Estados Unidos, en su red social Truth Social, fue más directo: tachó a Anthropic de "empresa radical de izquierdas y woke".
OpenAI dice sí: el nuevo socio estratégico
Mientras Anthropic se mantenía en sus principios, OpenAI no dudó. Sam Altman, CEO de la empresa detrás de ChatGPT, anunció un acuerdo para desplegar sus modelos en redes clasificadas del Departamento de Defensa. Aquí está el giro interesante: Altman aseguró que OpenAI también tiene salvaguardas contra la vigilancia masiva y la responsabilidad humana en el uso de armas. Según su narrativa, el Pentágono "está alineado" con estos principios.
La diferencia crucial es la ejecución. Mientras Anthropic se negó categóricamente, OpenAI aparentemente negoció términos que le permiten colaborar con el Pentágono manteniendo una fachada de principios éticos. Altman menciona específicamente que implementarán "salvaguardas técnicas" para garantizar el comportamiento correcto de sus modelos. Es una posición que, al menos en la teoría, intenta complacer a ambas partes.
Lo que antes era exclusividad de Anthropic ahora pertenece a OpenAI. No solo toma el contrato de 200 millones de dólares, sino que se posiciona como el proveedor de confianza para operaciones estratégicas militares en el futuro inmediato.
Las implicaciones técnicas y operacionales
Echar a Claude de las operaciones del Pentágono no es una simple transición tecnológica. Según reportes, Anthropic estaba integrada en operaciones estratégicas recientes, incluyendo la detención de Nicolás Maduro. Además, proyectos de terceros como los de Palantir, que utilizan Claude en sus análisis, quedan en una situación complicada. ¿Qué alternativas tienen? Precisamente las que ofrece OpenAI.
Entre bastidores, hay un detalle adicional revelado por Axios: el subsecretario de Defensa Emil Michael estaba en conversaciones con Anthropic para permitir la recolección de datos de ciudadanos estadounidenses (ubicación, historial de navegación, información financiera). Pete Hegseth soltó la bomba públicamente antes de que ese acuerdo se cerrara. Aún no se sabe si OpenAI aceptará este mismo tipo de colección de datos personales.
¿Por qué importa esto en Colombia y Latinoamérica?
Para Colombia y la región, esta disputa entre el Pentágono y las empresas de IA tiene relevancia directa. Primero, porque los modelos y decisiones de inteligencia artificial que desarrollan estos proveedores estadounidenses influyen en cómo se toman decisiones geopolíticas en América Latina. Si el Pentágono utiliza IA para operaciones en la región (vigilancia, análisis de datos, etc.), queremos saber bajo qué restricciones éticas opera.
Segundo, porque latinoamericanos desarrolladores y emprendedores observan esto como una lección sobre las presiones geopolíticas en el sector tecnológico. ¿Qué significa para empresas de la región si quieren mantener principios éticos pero también necesitan contratos con gobiernos o militares? El caso de Anthropic demuestra que la postura ética tiene precio en dólares. Además, la proliferación de aplicaciones militares de IA sin restricciones en manos del Pentágono tiene implicaciones para toda la región, especialmente en países con relaciones complejas con Estados Unidos.
Qué esperar ahora
Anthropic anunció que impugnará las sanciones, lo que sugiere una batalla legal prolongada. Mientras tanto, OpenAI consolida su posición como el proveedor oficial de IA para operaciones sensibles estadounidenses. El sector tecnológico está atento a cómo Anthropic enfrenta este desafío financiero y reputacional. ¿Podrá una empresa mantener sus principios éticos enfrentándose al Pentágono? Probablemente, pero al costo de perder mercado estratégico y millones en ingresos.
Este episodio también marca un punto de quiebre: la era donde las empresas de IA podían navegar entre principios éticos y demandas geopolíticas ha terminado. El Pentágono está mostrando quién manda realmente en la industria, y ha elegido un aliado que entienda que la seguridad nacional prima sobre las declaraciones de valores. Para Colombia y Latinoamérica, es un recordatorio de que vivimos en un mundo donde la tecnología es política, y las consecuencias pueden ser profundas.
Si quieres conocer otros artículos parecidos a IA en guerra: Anthropic vetada por el Pentágono, OpenAI toma su lugar puedes visitar la categoría Gadgets y Hardware.
Deja un comentario

Otros artículos que te podrían interesar