IA y poder: la contradicción de Sam Altman que define el futuro

IA y poder: la contradicción de Sam Altman que define el futuro

Sam Altman, CEO de OpenAI, declaró recientemente que le aterroriza un mundo donde las empresas de inteligencia artificial sean más poderosas que los gobiernos. El problema: OpenAI acaba de firmar un acuerdo con el Pentágono estadounidense que ilustra exactamente lo opuesto a lo que predica. Esta tensión expone la mayor contradicción del sector tecnológico en estos momentos.

Índice
  1. Qué está pasando en el frente de la IA y los gobiernos
  2. Las dos posturas que dividen a la industria
  3. La lógica interna de Altman (aunque cuestionable)
  4. Impacto en Colombia y Latinoamérica
  5. Qué esperar de aquí en adelante

Qué está pasando en el frente de la IA y los gobiernos

El fin de semana pasado, Sam Altman se conectó en la red social X para responder preguntas sobre un acuerdo que OpenAI firmó con el Departamento de Guerra de Estados Unidos. Durante la sesión, reconoció que el pacto "fue apresurado" y que la empresa se movió rápido para evitar tensiones entre el Pentágono y la industria tecnológica. Lo que dijo después resultó paradójico: expresó terror ante la idea de que corporaciones de IA actuaran como si tuvieran más poder que los gobiernos.

El timing de esta declaración no fue casual. Horas antes del acuerdo, el gobierno estadounidense había catalogado a Anthropic, el rival directo de OpenAI, como un "riesgo para la cadena de suministro". El delito de Anthropic: negarse a firmar bajo las mismas condiciones que OpenAI. Altman, en esencia, apagaba un fuego que su propia empresa había contribuido a encender.

Esta situación revela algo incómodo: mientras Altman habla sobre deferencia institucional y respeto por los gobiernos democráticos, OpenAI tomó una decisión estratégica unilateral sobre cómo toda la industria de la IA debería relacionarse con el estamento militar. Eso no suena a responsabilidad corporativa precisamente pensada, sino a poder real ejercido sin intermediarios.

Las dos posturas que dividen a la industria

Anthropic eligió un camino diferente al de OpenAI. La empresa, fundada por antiguos investigadores de OpenAI, exigió garantías explícitas contra el uso de su tecnología para vigilancia masiva o desarrollo de armas autónomas. Fue una posición clara, ética y transparente. Su recompensa: ser penalizada por el gobierno como un riesgo de cadena de suministro, un término típicamente usado para proveedores extranjeros hostiles.

OpenAI, en cambio, aceptó una fórmula más ambigua: permitir el uso de su IA "para todos los usos legales". Obtuvo el contrato. Varios empleados de OpenAI, significativamente, firmaron una carta pública apoyando la postura más restrictiva de Anthropic. El mercado también habló: Claude, la IA de Anthropic, se convirtió en la aplicación más descargada de la App Store de Apple ese fin de semana, superando a ChatGPT.

El contraste ilustra una pregunta fundamental: ¿quién debería decidir realmente cómo se usa la IA en contextos militares? ¿Las empresas que la construyen? ¿Los gobiernos que la contratan? ¿O los ingenieros que la diseñan y que cada vez se organizan más para influir en esas decisiones?

La lógica interna de Altman (aunque cuestionable)

Es justo reconocer que la postura de Altman tiene cierta coherencia interna. Su argumento central: si la IA se integrará en sistemas militares de todas formas (cosa casi inevitable en un mundo competitivo), quizá es preferible que ocurra bajo condiciones negociadas entre empresa y gobierno, antes que bajo coerción o presión política. Es un cálculo pragmático que algunos consideran razonable.

También tiene razón en algo importante: catalogar a Anthropic como riesgo para la cadena de suministro es, en palabras del propio Altman, "un precedente extremadamente aterrador". Usar una herramienta diseñada para contener amenazas de proveedores extranjeros hostiles contra una empresa estadounidense de seguridad en IA establece un precedente problemático para cualquier compañía que se atreva a cuestionar políticas gubernamentales.

Pero aquí está el problema: Altman afirma creer en el proceso democrático. Sin embargo, OpenAI negoció en privado, firmó en privado, y solo hizo pública una fracción del contrato. Si realmente creemos en la democracia y en que los gobiernos deben prevalecer sobre las corporaciones, todo esto debería ocurrir bajo escrutinio público y debate transparente. No detrás de puertas cerradas.

Impacto en Colombia y Latinoamérica

Para Colombia y el resto de América Latina, esta tensión entre corporaciones de IA y gobiernos tiene implicaciones directas. Mientras potencias como Estados Unidos negocian en privado cómo será la IA militar del futuro, países latinoamericanos quedan fuera de esa conversación. Nuestros gobiernos, con recursos limitados en ciberseguridad e IA, dependerán de tecnologías que otras naciones ya habrán modulado según sus intereses geopolíticos.

Además, si empresas como OpenAI pueden presionar a gobiernos estadounidenses (penalizando a competidores que se niegan a cooperar), ¿qué impide que hagan lo mismo en democracias más frágiles? Colombia, como receptor de tecnología extranjera, necesita anticipar cómo estos modelos de negociación empresa-gobierno afectarán nuestra soberanía digital. La falta de transparencia en estos acuerdos, ejemplificada por lo que sucedió con OpenAI y el Pentágono, es un riesgo que todos deberíamos estar vigilando.

Qué esperar de aquí en adelante

La contradicción de Altman no desaparecerá pronto. De hecho, se intensificará. Conforme la IA se integre en infraestructuras críticas (defensa, energía, finanzas), la presión sobre empresas tecnológicas para cooperar con gobiernos será cada vez mayor. La pregunta real no es si las corporaciones de IA serán poderosas —ya lo son—, sino si esa concentración de poder será ejercida con la transparencia y la responsabilidad que una democracia requiere.

Lo que queda claro es que confiar en las declaraciones de líderes tecnológicos sin examinar sus acciones es ingenuo. Sam Altman puede decir que le aterroriza el poder corporativo desenfrenad, pero mientras OpenAI negocia acuerdos militares en las sombras y castiga a competidores que se atreven a exigir límites éticos, sus palabras suenan como lo que son: marketing bien hecho para una empresa que ya ejerce exactamente el tipo de poder que dice temer.

Si quieres conocer otros artículos parecidos a IA y poder: la contradicción de Sam Altman que define el futuro puedes visitar la categoría Gadgets y Hardware.

Luigi Arrieta

Luigi Arrieta

Me gusta escribir sobre tecnología, he sido desarrollador, me gusta la nube y todo lo que tenga que ver con 0 y 1

Otros artículos que te podrían interesar

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir