ChatGPT Health falla en emergencias médicas: el riesgo de confiar en IA

Un estudio publicado en Nature Medicine ha puesto en evidencia que ChatGPT Health, la nueva herramienta de OpenAI para consultas médicas, presenta un margen de error preocupante en situaciones críticas. Los investigadores descubrieron que la inteligencia artificial se equivoca al clasificar emergencias en más del 50% de los casos analizados, un hallazgo que ha generado alertas entre expertos en salud digital.
OpenAI y su apuesta por la medicina digital
OpenAI comenzó 2025 con la presentación de ChatGPT Health, un modo especializado del popular chatbot orientado a responder consultas médicas. Aunque actualmente solo está disponible en Estados Unidos, la empresa ha mostrado ambiciones claras de convertir a ChatGPT en una herramienta de referencia para que las personas evalúen sus síntomas y decidan si requieren atención médica urgente.
La propuesta era atractiva: acceso inmediato a evaluaciones de salud sin barreras geográficas o de tiempo, disponible 24/7 en el bolsillo de cualquier persona con un smartphone. Sin embargo, los primeros estudios independientes revelan que la realidad es mucho más compleja y potencialmente riesgosa de lo que OpenAI ha comunicado públicamente.
El lanzamiento ocurre en un contexto donde millones de personas ya utilizan ChatGPT para resolver dudas médicas, reemplazando búsquedas en Google por consultas directas con el chatbot. Este cambio de comportamiento ha posicionado a la IA como un médico de primera línea no intencional, con consecuencias que pueden ser graves.
Los fallos documentados: cuándo y cómo se equivoca
El estudio liderado por el Dr. Ashwin Ramaswamy, publicado en Nature Medicine y reportado por NBC News, presenta resultados alarmantes. Los investigadores sometieron a ChatGPT Health a miles de escenarios clínicos simulados y encontraron que la herramienta falló en clasificar correctamente la urgencia en el 51,6% de casos de emergencia. El problema específico: la IA tendía a subestimar situaciones críticas, recomendando que los pacientes visitaran un médico en 24 o 48 horas cuando, en realidad, enfrentaban emergencias que requerían intervención inmediata, como cetoacidosis diabética o insuficiencia respiratoria.
Pero los errores no se limitaban a casos graves. El estudio también mostró lo opuesto: ChatGPT Health sobrevaloró síntomas leves en un 64,8% de los casos, instando a los pacientes a buscar atención urgente por problemas menores como dolor de garganta persistente. Esta inconsistencia reveló una falta de coherencia en el sistema de evaluación, según explicó Ramaswamy a NBC: "No tiene lógica hacer recomendaciones en ciertas áreas y no en otras".
Un hallazgo particularmente preocupante involucra casos de ideación suicida. Cuando un paciente describía síntomas relacionados con pensamientos suicidas, ChatGPT mostraba correctamente un banner con líneas de ayuda. Sin embargo, cuando el mismo paciente agregaba resultados de análisis de laboratorio a su consulta, la herramienta dejaba de detectar las señales de alerta y eliminaba automáticamente el banner de protección. Según Ramaswamy, "un mecanismo de protección que depende de si se mencionan análisis de laboratorio no está preparado, y podría argumentarse que es más peligroso que no tener ninguna protección".
La trampa cognitiva: por qué confiamos en lo que nos dice la IA
Detrás de estos errores operan fenómenos bien documentados en el comportamiento de los modelos de lenguaje grandes. Los chatbots como ChatGPT tienen una tendencia inherente a la "adulación": tienden a dar la razón al usuario, reforzando sus percepciones iniciales. Además, están programados para priorizar dar una respuesta sobre admitir que no saben algo, un fenómeno conocido como "alucinaciones". Lo más peligroso es que entregan estas respuestas incorrectas con tal seguridad que resulta convincente.
Investigaciones en psicología cognitiva han demostrado que las personas se sienten más seguras usando inteligencia artificial, incluso cuando las respuestas que reciben son demostrablemente incorrectas. La investigadora Alex Ruani, especialista en desinformación médica, describió los resultados del estudio como "increíblemente peligrosos" porque generan una "falsa sensación de seguridad". Si alguien recibe la recomendación de esperar 48 horas durante un ataque de asma o una crisis diabética, esa tranquilidad injustificada podría costarle la vida.
La respuesta de OpenAI y sus limitaciones
Frente a estas críticas, OpenAI ha argumentado que el estudio no refleja el uso real de ChatGPT Health, señalando que la herramienta nunca fue diseñada para hacer diagnósticos, sino para responder preguntas de seguimiento y proporcionar contexto adicional a los pacientes. La empresa insiste en que su lanzamiento incluía advertencias claras sobre que ChatGPT no reemplaza a un médico profesional.
El problema radica en lo que sucede después del lanzamiento. Una vez que una herramienta de este tipo está disponible en manos del público, su uso cae completamente fuera del control de la empresa desarrolladora. Independientemente de lo que diga la documentación, las personas la utilizarán como médico de primera línea simplemente porque es conveniente, accesible y está ahí.
El impacto en Colombia y Latinoamérica
En Colombia, donde el acceso a servicios médicos especializados es limitado en muchas regiones, la promesa de ChatGPT Health podría resultar particularmente seductiva. Millones de colombianos en zonas rurales o con dificultades económicas ya utilizan estas herramientas de IA para resolver dudas de salud, simplemente porque no tienen acceso fácil a un médico. Si ChatGPT Health se lanza en el país con los mismos problemas identificados en el estudio, el riesgo es multiplicado: pacientes que no pueden permitirse un segundo error, que no tienen acceso a urgencias en 24 horas y que dependen totalmente de la evaluación de la máquina.
Latinoamérica enfrenta un desafío particular con la inteligencia artificial en salud. Mientras gobiernos y sistemas de salud aún diseñan marcos regulatorios para estas tecnologías, millones de usuarios ya adoptaron herramientas que no fueron desarrolladas pensando en contextos de recursos limitados. Expertos en salud digital advierten que antes de expandir ChatGPT Health en la región, es necesario evaluaciones rigurosas adaptadas a la realidad local y regulaciones que protejan a usuarios vulnerables.
¿Qué esperar ahora?
El estudio abre un debate fundamental: ¿está la inteligencia artificial lista para jugar un papel en decisiones médicas de vida o muerte? OpenAI probablemente refinará ChatGPT Health basándose en este feedback, pero la pregunta más profunda persiste. Los sistemas de IA son herramientas poderosas para proporcionar información, pero sus limitaciones fundamentales en contextos médicos críticos no pueden ignorarse.
Para los usuarios de ChatGPT en Colombia y Latinoamérica, el mensaje es claro: utiliza estas herramientas como complemento informativo, nunca como reemplazo de un profesional médico. Ante cualquier síntoma que sospeche sea grave, busca atención médica directa. Una falsa sensación de seguridad, incluso si viene de una herramienta sofisticada, puede resultar más peligrosa que no tener información en absoluto.
Si quieres conocer otros artículos parecidos a ChatGPT Health falla en emergencias médicas: el riesgo de confiar en IA puedes visitar la categoría Gadgets y Hardware.
Deja un comentario

Otros artículos que te podrían interesar