IA sin límites: el Pentágono presiona a Anthropic para eliminar sus salvaguardas

IA sin límites: el Pentágono presiona a Anthropic para eliminar sus salvaguardas

El Pentágono acaba de establecer un ultimátum a Anthropic: aceptar el uso sin restricciones de sus modelos de inteligencia artificial para aplicaciones militares y de espionaje antes del viernes, o enfrentar una intervención estatal. La empresa fundada por Dario Amodei se ha negado, argumentando que sus tecnologías deben mantener límites éticos fundamentales.

Índice
  1. El enfrentamiento entre seguridad nacional y responsabilidad tecnológica
  2. Las cartas en la mesa: intervención estatal y precedentes peligrosos
  3. ¿Qué significa esto para Colombia y Latinoamérica?
  4. Qué esperar en los próximos días

El enfrentamiento entre seguridad nacional y responsabilidad tecnológica

El conflicto entre Anthropic y el Departamento de Defensa estadounidense representa una de las tensiones más complejas de la era de la inteligencia artificial: ¿quién controla realmente la tecnología más poderosa del momento? De un lado está Anthropic, defensora de "líneas rojas" que prohíben el uso de su modelo Claude para vigilancia masiva de ciudadanos estadounidenses y desarrollo de armas autónomas completamente controladas por IA. Del otro, el Pentágono, que argumenta que cualquier empresa privada no debería imponer límites al uso de sus soluciones cuando la Constitución y las leyes estadounidenses lo permitan.

Esta pugna no surgió de la nada. Todo se intensificó cuando se reveló que Claude fue utilizado en una operación de fuerzas especiales estadounidenses en enero para intentar capturar al expresidente venezolano Nicolás Maduro. Ese incidente expuso la dependencia crítica que el ejército estadounidense tiene de Anthropic: actualmente, es la única empresa de IA que opera en los sistemas clasificados del Pentágono, una posición de poder que el gobierno ahora quiere romper.

La administración Trump marcó un giro radical respecto a la aproximación anterior. Mientras que Biden impulsaba medidas para restringir éticamente la aplicación de la IA, el nuevo gobierno ha optado por una postura más agresiva. Cuando Anthropic lanzó Claude Gov en junio de 2025—modelos especializados diseñados para agencias nacionales estadounidenses en seguridad, defensa e inteligencia—la empresa incluso ofreció el servicio a un precio simbólico de un dólar para asegurar adopción gubernamental. Poco después recibió un contrato de 200 millones de dólares.

Las cartas en la mesa: intervención estatal y precedentes peligrosos

El gobierno estadounidense tiene varias cartas que podría jugar. La primera y más simple sería simplemente cambiar de proveedor: xAI ya ha firmado acuerdos para que el Departamento de Defensa utilice su modelo Grok en sistemas clasificados, y Google también está siendo considerado como alternativa. Sin embargo, el Pentágono parece estar considerando opciones más drásticas.

La segunda opción es clasificar a Anthropic como un riesgo para la cadena de suministro estadounidense. Esto sería devastador: implicaría que miles de empresas en EE.UU. no podrían trabajar con ellos, similar al veto que Washington impuso a Huawei hace años. Para Anthropic, sus inversores—Amazon y Google—y sus empleados, las consecuencias serían catastróficas. Pero la amenaza más inquietante es la tercera: invocar el Título 1 de la Defense Production Act de 1950, una ley de casi 80 años diseñada originalmente para controlar la economía durante guerras y emergencias. Aunque ya se utilizó durante la pandemia de COVID-19 para acelerar producción de vacunas, usarla para expropiar propiedad intelectual de una empresa nacional establecería un precedente sin precedentes.

Si el Pentágono finalmente activa esta legislación, estaría sentando las bases para que el Estado pueda intervenir la propiedad intelectual de cualquier empresa de software bajo el argumento de emergencia nacional. Esto obligaría a todas las grandes tecnológicas a tomar una decisión existencial: ceder el control total de sus desarrollos al ejército, o arriesgarse a ser intervenidas legalmente. Es un dilema que trasciende a Anthropic.

¿Qué significa esto para Colombia y Latinoamérica?

Para Colombia, este enfrentamiento tiene implicaciones que van más allá de observaciones académicas. El país ha sido receptivo a tecnologías estadounidenses de inteligencia artificial tanto en el sector privado como en instituciones públicas. La decisión que tome Anthropic—o que le imponga el gobierno estadounidense—afectará disponibilidad y confiabilidad de estas herramientas en nuestra región. Además, si el precedente de intervención estatal en IA se consolida, podría influir en cómo gobiernos latinoamericanos comienzan a regulan y controlar sus propias tecnologías, potencialmente limitando innovación y autonomía tecnológica regional.

Para Latinoamérica existe otra preocupación: históricamente, cuando gobiernos estadounidenses clasifican tecnologías como críticas para seguridad nacional, muchas empresas privadas de la región pierden acceso a herramientas clave. El futuro de Claude en sistemas gubernamentales colombianos, así como en iniciativas de inteligencia artificial en defensa y seguridad que países vecinos están desarrollando, podría depender de cómo se resuelva este conflicto en Washington.

Qué esperar en los próximos días

El ultimátum del Pentágono vence este viernes a las 17:01, hora estadounidense. Anthropic ha dejado claro que no cederá fácilmente a presiones para eliminar sus salvaguardas éticas. La empresa sostiene que puede apoyar la misión de seguridad nacional sin renunciar a principios fundamentales de responsabilidad tecnológica. Sin embargo, enfrentarse directamente al poder militar estadounidense es un riesgo colosal para una empresa privada, sin importar cuánto capital de riesgo tenga.

Lo que suceda en los próximos días definirá no solo el futuro de Anthropic, sino también el rumbo del desarrollo de inteligencia artificial en Occidente. ¿Triunfará la idea de que los desarrolladores tienen responsabilidad ética sobre sus creaciones, o prevalecerá la lógica de que la seguridad nacional justifica cualquier aplicación tecnológica? Esta batalla será determinante para entender qué clase de IA gobernaremos en las próximas décadas.

Si quieres conocer otros artículos parecidos a IA sin límites: el Pentágono presiona a Anthropic para eliminar sus salvaguardas puedes visitar la categoría Gadgets y Hardware.

Luigi Arrieta

Luigi Arrieta

Me gusta escribir sobre tecnología, he sido desarrollador, me gusta la nube y todo lo que tenga que ver con 0 y 1

Otros artículos que te podrían interesar

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir