IA: Pentágono saca a Anthropic de la lista y elige a OpenAI

IA: Pentágono saca a Anthropic de la lista y elige a OpenAI

El Departamento de Defensa estadounidense cumplió su amenaza y rescindió el contrato con Anthropic, valorado en hasta 200 millones de dólares, tras la negativa de la empresa a permitir usos sin restricciones de su modelo Claude para vigilancia y operaciones militares. OpenAI, liderada por Sam Altman, ocupará el lugar de la compañía fundada por Dario Amodei, según anunció el secretario de Defensa Pete Hegseth.

Índice
  1. Qué sucedió: el pulso entre Washington y una empresa de IA
  2. OpenAI dice que sí: ¿con los mismos principios?
  3. El impacto para Colombia y Latinoamérica
  4. Qué esperar: un nuevo orden en la IA corporativa

Qué sucedió: el pulso entre Washington y una empresa de IA

El Pentágono emitió un ultimátum a Anthropic hace semanas: aceptar el uso sin restricciones de sus modelos de inteligencia artificial para cualquier aplicación, incluyendo vigilancia de civiles y desarrollo de sistemas de armas autónomas. La empresa rechazó. El plazo venció el pasado 27 de febrero a las 5:01 de la tarde, hora estadounidense, y Anthropic mantuvo su postura: no comprometería sus principios éticos.

La respuesta fue inmediata. El Ministerio de Defensa de Estados Unidos activó sanciones que hasta ahora solo se habían aplicado a empresas de naciones rivales, como Huawei. Anthropic ahora enfrenta una prohibición comercial sin precedentes: ningún contratista, proveedor o socio que trabaje con las Fuerzas Armadas estadounidenses podrá realizar actividades comerciales con la empresa. Esto constituye un golpe devastador para una compañía valorada en 380 mil millones de dólares con inversores de la talla de Amazon, Microsoft y Nvidia.

Paralelamente, según reportes de Axios, el subsecretario de Defensa Emil Michael estaba en conversaciones preliminares con Anthropic para llegar a un acuerdo que permitiera recolectar datos de ciudadanos estadounidenses—ubicación, historial de navegación e información financiera—cuando Hegseth anunció públicamente la ruptura en redes sociales, derribando cualquier posibilidad de negociación.

OpenAI dice que sí: ¿con los mismos principios?

Mientras Anthropic se mantenía firme, OpenAI anunció su acuerdo para desplegar sus modelos en la red clasificada del Pentágono. Sam Altman aseguró que el Departamento de Defensa ha mostrado "profundo respeto por la seguridad" y que tanto la seguridad de la IA como la amplia distribución de beneficios son fundamentales en su misión. Curiosamente, mencionó explícitamente dos líneas rojas: la prohibición de vigilancia masiva nacional y la responsabilidad humana en el uso de la fuerza, incluidos los sistemas de armas autónomas. Son exactamente los mismos principios que Anthropic defendió.

Altman afirmó que el Departamento de Guerra está alineado con estos principios y que aplicarán salvaguardas técnicas para garantizar el comportamiento correcto de sus modelos. Sin embargo, queda la incógnita: ¿qué garantías reales existen de que se respetarán estas limitaciones? Y más importante aún, ¿por qué el Pentágono aceptó compromisos éticos de OpenAI que rechazó escuchar cuando provenían de Anthropic?

El Pentágono otorgó un período de seis meses para la transición de Claude a otras alternativas. Esto no es un proceso menor: Anthropic está detrás de operaciones estratégicas recientes documentadas públicamente, incluyendo analítica que apoyó la detención del expresidente venezolano Nicolás Maduro. Proyectos de empresas como Palantir, que integran Claude en sus plataformas de análisis, ahora enfrentan una complicación operacional importante.

El impacto para Colombia y Latinoamérica

Para Colombia y la región, este enfrentamiento entre el Pentágono y una empresa de IA tiene implicaciones profundas que van más allá de la geopolítica estadounidense. En primer lugar, evidencia cómo los gobiernos están presionando a las compañías tecnológicas para acceso sin restricciones a herramientas de vigilancia y análisis de datos. Si el modelo del Pentágono se replica en otros países con menos escrupulos democráticos, podría normalizarse la vigilancia masiva como política pública.

Para empresas y gobiernos latinoamericanos que utilizan Claude o servicios de OpenAI, la situación subraya un riesgo estructural: la dependencia de infraestructura tecnológica controlada por gobiernos extranjeros. Colombia, que ha invertido en transformación digital desde entidades públicas hasta el sector privado, debe replantearse qué tan vulnerable es su ecosistema digital ante presiones geopolíticas. El veto a Anthropic también ilustra cómo las sanciones comerciales estadounidenses pueden ser repentinas y devastadoras, algo que empresas regionales que comercian con proveedores estadounidenses deben tener en cuenta.

Qué esperar: un nuevo orden en la IA corporativa

Este episodio marca un punto de inflexión en la carrera por dominar la inteligencia artificial global. No se trata solo de competencia tecnológica, sino de alineamiento político. Las empresas de IA que acepten restricciones de gobiernos obtienen contratos lucrativos; las que priorizan la ética sobre la rentabilidad enfrentan exclusión sistemática. Esto crea un incentivo perverso: otros desarrolladores de IA podrían abandonar sus principios éticos si el costo económico de mantenerlos es demasiado alto.

Para los usuarios finales de estas herramientas—individuos, empresas y gobiernos—la pregunta fundamental es quién realmente controla la inteligencia artificial: ¿los desarrolladores, los gobiernos o los usuarios? El caso de Anthropic sugiere que, por ahora, gana quien tiene la mayor capacidad de coerción económica y política. En un mundo donde la IA define cada vez más decisiones cruciales, desde vigilancia hasta defensa, esa respuesta debería preocupar a cualquiera que crea en la democracia y la privacidad.

Si quieres conocer otros artículos parecidos a IA: Pentágono saca a Anthropic de la lista y elige a OpenAI puedes visitar la categoría Gadgets y Hardware.

Luigi Arrieta

Luigi Arrieta

Me gusta escribir sobre tecnología, he sido desarrollador, me gusta la nube y todo lo que tenga que ver con 0 y 1

Otros artículos que te podrían interesar

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir