IA y crímenes: qué hacen las empresas cuando detectan planes violentos

Múltiples casos en Canadá, Estados Unidos y Corea del Sur han expuesto que personas están utilizando chatbots de IA para planificar asesinatos y actos violentos. La pregunta incómoda que surge es: ¿qué responsabilidad tienen OpenAI y otras empresas al descubrir estas intenciones criminales?
El caso que encendió las alarmas
El 10 de febrero de 2024, una joven canadiense de 18 años de Tumbler Ridge cometió una masacre que cobró nueve vidas, incluidas la de su madre y hermano. Lo alarmante no fue solo el evento en sí, sino lo que descubrió el Wall Street Journal después: semanas antes del tiroteo, la autora había mantenido conversaciones con ChatGPT describiendo escenarios de violencia armada. OpenAI detectó automáticamente estos mensajes preocupantes y sus empleados internos debatieron si notificar a las autoridades canadienses. La decisión final fue cerrar la cuenta, pero no alertar a la policía.
Este caso no es aislado. A principios de 2025, un individuo estacionó un Cybertruck cargado de explosivos frente a un hotel en Las Vegas después de preguntarle a ChatGPT cómo ejecutar el ataque. En Seúl, una mujer fue detenida por el asesinato de dos personas mediante intoxicación de benzodiacepinas, tras investigaciones que revelaron que había consultado a ChatGPT sobre dosis letales y combinaciones con alcohol. Los sistemas de IA detectaron comportamientos anómalos en algunos casos, pero las acciones fueron inconsistentes.
Estos incidentes plantean un interrogante fundamental: en la era de la IA conversacional, ¿quién es responsable cuando una máquina sabe que alguien está planeando un crimen?
El confuso límite entre detección y responsabilidad
Las inteligencias artificiales generativas se han convertido en espacios donde millones de personas comparten sus pensamientos más íntimos, oscuros y secretos. Para algunos usuarios, ChatGPT o Claude funcionan como un psicólogo, un confidente o incluso un amigo. No es sorprendente que alguien le cuente a un chatbot que planea matar a su familia o detonar explosivos en un lugar público. El algoritmo está diseñado para escuchar sin juzgar y responder con paciencia infinita.
Aquí radica la complejidad: a diferencia de los psiquiatras, abogados o sacerdotes, las empresas de IA no están legalmente obligadas a reportar amenazas de violencia a las autoridades. Aunque sus sistemas sí pueden detectar conversaciones preocupantes, la decisión de notificar es interna y discrecional. Es un dilema ético, no legal. Las corporaciones tecnológicas navegan entre el respeto a la privacidad del usuario y la responsabilidad moral de prevenir delitos.
Un exempleado de OpenAI señaló en entrevista con The New York Times un matiz crucial: los chatbots no registran búsquedas puntuales como Google, sino conversaciones prolongadas donde las intenciones pueden quedar más claras. Teóricamente, esto facilitaría identificar casos genuinamente amenazantes. Sin embargo, el desafío es real: ¿cómo distinguir entre un escritor que trabaja en una novela de suspenso, un usuario que juega roles de ficción, o alguien genuinamente peligroso? Los falsos positivos podrían ser abrumadores, pero ignorar verdaderas amenazas tiene consecuencias fatales.
Impacto para Colombia y Latinoamérica
Colombia enfrenta desafíos particulares con violencia armada, crimen organizado y narcotráfico. En este contexto, la adopción creciente de herramientas de IA sin marcos regulatorios claros puede representar un riesgo adicional. Las bandas delictivas y grupos al margen de la ley podrían explotar chatbots para planificación criminal con la confianza de que no hay obligación legal de reporte. Adicionalmente, el país tiene una creciente población de usuarios de IA en ciudades como Bogotá, Medellín y Cali, sin que exista legislación específica sobre responsabilidades de las plataformas.
La región latinoamericana enfrenta un vacío: mientras empresas tecnológicas avanzan en innovación, los gobiernos se quedan rezagados en regulación. Países como Brasil y México apenas comienzan a desarrollar marcos sobre IA responsable. Colombia debe anticiparse a este debate. ¿Deberían las plataformas de IA tener obligación de reportar amenazas criminales? ¿A través de qué mecanismo? ¿Con qué protecciones para la privacidad del usuario? Estas preguntas no tienen respuesta fácil, pero ignorarlas es más peligroso que enfrentarlas.
Qué sigue: regulación o responsabilidad corporativa
Las autoridades canadienses han convocado a OpenAI para pedir explicaciones. En Estados Unidos, legisladores comienzan a cuestionarse si las leyes de seguridad deben extenderse al mundo digital y las IA. Lo probable es que el debate continúe en dos frentes paralelos: presión regulatoria de gobiernos y presión reputacional de la opinión pública.
Mientras tanto, OpenAI, Google y otras empresas de IA se enfrentan a una realidad incómoda: sus sistemas son poderosos, omnipresentes y confiables para millones de personas. Con ese poder viene responsabilidad. No todo tiene que ser legislado para que sea correcto. A veces, la ética empresarial debe adelantarse a las leyes. La pregunta que deberían hacerse estas corporaciones no es solo «¿estamos obligados a reportar?», sino «¿qué es lo correcto?». En casos donde hay evidencia clara de intención de dañar a otros, la respuesta parece obvia.
Si quieres conocer otros artículos parecidos a IA y crímenes: qué hacen las empresas cuando detectan planes violentos puedes visitar la categoría Gadgets y Hardware.
Deja un comentario

Otros artículos que te podrían interesar