ChatGPT vs usuarios: la apuesta perdida de OpenAI con el Pentágono

El sábado 28 de febrero, ChatGPT experimentó un colapso de confianza cuando OpenAI anunció un acuerdo con el Departamento de Defensa de Estados Unidos. La decisión desencadenó 295% más desinstalaciones en pocas horas y disparó las críticas negativas en un 775%, demostrando que los usuarios elegirían ética sobre conveniencia corporativa.
Qué sucedió: el giro inesperado de OpenAI
La historia comienza con una negociación entre el Pentágono y Anthropic, empresa creadora de Claude. Durante meses, el Departamento de Defensa utilizó Claude para procesar documentos clasificados, pero enfrentó un dilema: Anthropic había establecido límites éticos explícitos. La empresa se negó a permitir que su IA fuera utilizada para vigilancia masiva o desarrollo de armas autónomas letales, dos capacidades que el Pentágono deseaba implementar.
Ante el rechazo de Anthropic, OpenAI no dudó en presentarse como alternativa. Sam Altman, CEO de la compañía, había elogiado públicamente la postura ética de Anthropic apenas horas antes de anunciar que OpenAI reemplazaría a Claude en los sistemas del Departamento de Defensa. El movimiento fue percibido como oportunista y provocó una reacción inmediata en redes sociales con el hashtag #CancelChatGPT.
La ironía no pasó desapercibida: OpenAI, que construyó su reputación inicial en argumentos sobre seguridad en la IA, ahora parecía estar comprometiendo esos principios por un contrato gubernamental. La comunidad tecnológica global cuestionó si la empresa había priorizado ganancias sobre responsabilidad social.
Los números no mienten: el castigo de los usuarios
Sensor Tower, la consultora que monitoriza el desempeño de aplicaciones móviles, registró datos que hablan solos. Mientras que normalmente las desinstalaciones de ChatGPT rondan el 9% diario, el sábado 28 de febrero alcanzaron proporciones extraordinarias con un incremento del 295% respecto al viernes. Esta cifra no es un pico aislado: también se observó un aumento significativo en las malas calificaciones, que se multiplicaron en 775% el sábado y 100% el domingo.
Las opiniones de cinco estrellas cayeron 50%, mientras que las de una sola estrella se dispararon en proporciones históricas para la aplicación. Los usuarios no solo se iban; dejaban un registro visible de su desaprobación en las tiendas de aplicaciones. Es lo que muchos llaman la "tiranía del usuario informado": cuando la base de clientes tiene información y herramientas para expresar su descontento de forma masiva.
Pero el castigo no se limitó a números de desinstalación. Claude, la alternativa de Anthropic, experimentó un efecto contrario: por primera vez en Estados Unidos, las descargas de Claude superaron las de ChatGPT el mismo sábado. Además, Claude se convirtió en la aplicación más descargada en seis países: Bélgica, Canadá, Alemania, Luxemburgo, Noruega y Suiza. Lo que comenzó como una negociación estratégica se convirtió en un giro de mercado.
El efecto Streisand: cómo backfire el Pentágono
Lo que sucedió es un caso textbook de "efecto Streisand", donde intentar silenciar o marginar algo genera más atención y rechazo. El Pentágono esperaba que Anthropic fuera vista como una empresa con limitaciones problemáticas. En cambio, la audiencia global reposicionó a Anthropic como defensora de la ética en inteligencia artificial, ganando una credibilidad que el dinero difícilmente podría comprar.
Sam Altman intentó remediar la situación anunciando enmiendas al acuerdo con protecciones contra vigilancia masiva. Sin embargo, el silencio respecto a armas autónomas letales mantuvo la sospecha activa. Para muchos usuarios, la corrección llegaba demasiado tarde: la confianza ya estaba fracturada. Este episodio ilustra una lección crítica para empresas tecnológicas: la percepción de falta de ética puede ser más destructiva que cualquier competencia directa.
Implicaciones para Colombia y Latinoamérica
En Colombia, donde plataformas como ChatGPT han ganado tracción entre profesionales, estudiantes y emprendedores en los últimos meses, este conflicto revela algo importante: la comunidad tecnológica latinoamericana está cada vez más atenta a cuestiones de ética corporativa. Aunque no tenemos contrataciones directas con el Pentágono, el efecto es global. Los usuarios colombianos que descargaron ChatGPT observan cómo marcas occidentales toman decisiones que contradicen sus valores declarados, generando desconfianza.
Para la región, este caso es un recordatorio de por qué es relevante explorar alternativas locales y globales en herramientas de IA. Latinoamérica necesita diversificar sus opciones tecnológicas en lugar de depender exclusivamente de plataformas que podrían estar subordinadas a agendas geopolíticas ajenas. Empresas como Anthropic demuestran que es posible mantener límites éticos sin sacrificar innovación, un modelo que la región debería estudiar y potencialmente emular.
Hacia dónde va esto: lecciones y futuro incierto
Para OpenAI, la lección es clara: los usuarios modernos valoran la ética tanto como la funcionalidad. Una herramienta poderosa pero etiquetada como moralmente comprometida pierde valor en el mercado. La empresa enfrenta un dilema: continuar con contratos gubernamentales que generen rechazo, o recalibrar su estrategia hacia una posición más transparente sobre sus límites éticos.
Anthropic, paradójicamente, sale fortalecida en percepción pero enfrenta riesgos reales: algunos departamentos gubernamentales ya han migrado a OpenAI, y existe la posibilidad remota pero preocupante de represalias que compliquen su modelo de negocio. Sin embargo, ha ganado algo que en tecnología es cada vez más valioso: la confianza de una comunidad global que cree que sus principios son auténticos. En un futuro donde la inteligencia artificial jugará roles cada vez más críticos en la sociedad, esa reputación podría ser su mayor ventaja competitiva.
Si quieres conocer otros artículos parecidos a ChatGPT vs usuarios: la apuesta perdida de OpenAI con el Pentágono puedes visitar la categoría Gadgets y Hardware.
Deja un comentario

Otros artículos que te podrían interesar