Sam Altman y OpenAI: promesas vs. acciones en acuerdo con Pentágono

Sam Altman y OpenAI: promesas vs. acciones en acuerdo con Pentágono

Sam Altman, CEO de OpenAI, anunció un acuerdo histórico para desplegar modelos de inteligencia artificial en sistemas clasificados del Departamento de Defensa estadounidense. Sin embargo, en menos de 48 horas quedó expuesta una contradicción notable: los términos reales del contrato desmienten las salvaguardas éticas que Altman pregonaba públicamente.

Índice
  1. El giro inesperado en la carrera por contratos de defensa
  2. Las salvaguardas que no son tan salvaguardas
  3. La reacción interna y externa
  4. Impacto en Colombia y Latinoamérica
  5. ¿Qué esperar ahora?

El giro inesperado en la carrera por contratos de defensa

Hace apenas días, el panorama en la industria de IA parecía claro: Anthropic, la empresa cofundada por exmiembros de OpenAI, estaba negociando con agencias de defensa y seguridad del gobierno estadounidense. Su modelo de lenguaje Claude inclusive se utilizó en operaciones de inteligencia. Pero el viernes pasado, Anthropic rechazó los términos que le proponía el Pentágono, estableciendo una línea roja que la empresa no estaba dispuesta a cruzar.

Según reportes, los términos originales permitían al Departamento de Defensa usar sistemas de IA sin restricciones significativas para vigilancia masiva, desarrollo de armas autónomas y otras operaciones de alto riesgo. Anthropic se negó a aceptar estas condiciones, incluso arriesgándose a represalias del gobierno. Esta posición ética de Anthropic dejó una puerta abierta para que otra empresa tomara el lugar.

Y esa empresa fue OpenAI. En un comunicado publicado en Twitter el jueves, Sam Altman anunció que su compañía había llegado a un acuerdo para operar en la red clasificada del Departamento de Defensa. El timing fue particularmente notable porque solo horas antes, Altman había enviado un comunicado interno expresando su deseo de que "las cosas desescalasen" entre Anthropic y la cartera de defensa. Menos de 48 horas después, OpenAI ocupaba el lugar que Anthropic rechazó.

Las salvaguardas que no son tan salvaguardas

En su anuncio público, Altman destacó que OpenAI había negociado "más salvaguardas que cualquier acuerdo previo para despliegues de IA clasificada". El CEO mencionó explícitamente tres restricciones: prohibición de espionaje contra ciudadanos estadounidenses, prohibición de armas autónomas independientes, y prohibición de sistemas de crédito social para calificar a ciudadanos.

Sin embargo, cuando se examina el lenguaje real del contrato, la realidad es más matizada. El acuerdo establece que el Departamento de Defensa puede utilizar los sistemas de IA "para todos los fines legales, de conformidad con la legislación aplicable". Esta cláusula es crucial porque abre una brecha importante: el espionaje masivo de ciudadanos estadounidenses es técnicamente legal bajo ciertas circunstancias, específicamente amparado por la Patriot Act aprobada tras los atentados del 11 de septiembre.

Jeremy Lewin, funcionario del Departamento de Estado, ha señalado que el acuerdo "fluye desde el pilar de 'todo uso legítimo'", lo que sugiere que las restricciones que Altman presentó públicamente pueden tener interpretaciones mucho más amplias de lo que el CEO comunicó. En otras palabras: lo que Altman vendió como límites firmes puede ser eludido simplemente clasificando ciertas operaciones como "legales".

La reacción interna y externa

La contradicción no pasó desapercibida. Casi 800 empleados de OpenAI y Google firmaron una carta abierta titulada "No seremos divididos", expresando su apoyo a la posición ética de Anthropic. Entre los firmantes había 96 trabajadores de OpenAI y 681 de Google, números significativos que reflejan preocupación genuina dentro de las propias compañías de tecnología.

En plataformas como Reddit, usuarios comenzaron a promover movimientos para "cancelar ChatGPT", con miles de votos y comentarios que criticaban duramente la decisión de OpenAI. El tono era de indignación: mientras Altman decía públicamente confiar en Anthropic y preocuparse por la seguridad, simultáneamente se apresuraba a firmar con el mismo departamento que Anthropic había rechazado.

Impacto en Colombia y Latinoamérica

Para Colombia y el resto de Latinoamérica, estos acuerdos entre empresas de IA y gobiernos estadounidenses tienen implicaciones significativas. La tecnología que OpenAI desarrolla para el Pentágono eventualmente filtra hacia otras agencias de inteligencia y gobiernos aliados, incluyendo aquellos en América Latina. Si los sistemas de IA se despliegan sin salvaguardas claras contra vigilancia masiva, países como Colombia podrían enfrentar mayor exposición de datos de ciudadanos a través de cooperación entre agencias de seguridad.

Además, el precedente que establece OpenAI tiene un efecto dominó: si una empresa de IA líder acepta términos flexibles sobre vigilancia y operaciones de defensa, otras compañías sentirán presión para hacer lo mismo. Esto es particularmente relevante en una región donde la privacidad digital ya enfrenta desafíos por conflictos de seguridad interna. Latinoamérica debe estar atenta a cómo se desarrolla esta tendencia global, especialmente considerando que varias de estas tecnologías se comercializan posteriormente en nuestros mercados.

¿Qué esperar ahora?

Históricamente, los movimientos de "cancelación" contra grandes tecnológicas tienden a perder momentum. Facebook enfrentó protestas masivas, al igual que Netflix, pero ambas empresas se recuperaron porque los consumidores tienen memoria corta. La pregunta es si OpenAI seguirá el mismo patrón o si esta situación representa un punto de quiebre mayor en cómo percibimos la alineación ética de sus líderes.

Lo cierto es que Sam Altman ha reforzado una narrativa incómoda: que dice una cosa en público y hace otra en los pasillos del poder. Ya sea intencional o no, esta brecha entre su comunicación pública y sus acciones reales erosiona la confianza. Y en una industria donde la confianza es fundamental para la adopción masiva de tecnología, ese es un costo real que OpenAI tendrá que navegar.

Si quieres conocer otros artículos parecidos a Sam Altman y OpenAI: promesas vs. acciones en acuerdo con Pentágono puedes visitar la categoría Gadgets y Hardware.

Luigi Arrieta

Luigi Arrieta

Me gusta escribir sobre tecnología, he sido desarrollador, me gusta la nube y todo lo que tenga que ver con 0 y 1

Otros artículos que te podrían interesar

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir