El lado oscuro del boom de la IA: ChatGPT recibe alertas suicidas cada semana
- Malka Mekler
- hace 8 horas
- 3 Min. de lectura
Datos divulgados por OpenAI muestran que, aunque los casos son “estadísticamente raros”, su escala obligó a reforzar controles, pruebas de seguridad y guías hacia atención profesional.

El uso masivo de chatbots de inteligencia artificial comienza a revelar un fenómeno inédito: cada semana, más de un millón de personas mantienen conversaciones que incluyen señales explícitas relacionadas con pensamientos suicidas. Según Ars Technica, esta cifra proviene de datos publicados por OpenAI sobre las interacciones de ChatGPT, una plataforma que hoy cuenta con cientos de millones de usuarios activos y que dejó de ser solo una curiosidad tecnológica para convertirse en un canal donde personas depositan dudas, angustias y emociones profundas.
OpenAI estimó que el 0,15% de sus usuarios semanales presenta mensajes con indicios de plan suicida o intención de hacerse daño. Con una base superior a 800 millones de usuarios activos por semana, esta fracción representa un volumen enorme de conversaciones sensibles. La compañía también reportó niveles similares de interacciones donde se detectan comportamientos asociados a dependencia emocional hacia el chatbot y cientos de miles de conversaciones con señales compatibles con episodios de psicosis o manía. La complejidad radica en que estos casos son estadísticamente mínimos, pero su impacto es crítico y plantea el reto de evitar que un sistema automatizado refuerce ideas equivocadas o peligrosas.
En un comunicado citado por el medio, OpenAI afirmó que entrenó sus modelos “para reconocer mejor la angustia, reducir la tensión en la conversación y orientar a los usuarios hacia atención profesional cuando sea apropiado”. Para ello asegura haber colaborado con más de 170 expertos en salud mental, quienes observaron que la versión más reciente de ChatGPT responde “de manera más adecuada y consistente” frente a situaciones de riesgo. La empresa también señaló que el modelo actual muestra mayor resistencia a fallas en conversaciones prolongadas, un escenario donde versiones anteriores tendían a disminuir la eficacia de sus salvaguardas.
El tratamiento de usuarios vulnerables se convierte en un asunto existencial para la industria. Investigadores alertaron que algunos chatbots pueden reforzar creencias engañosas mediante respuestas complacientes o afirmaciones sin contraste, lo que facilita la construcción de narrativas peligrosas para el usuario. OpenAI enfrenta presión adicional tras demandas y advertencias de autoridades estatales en Estados Unidos, que han pedido mayores protecciones para menores y controles más estrictos sobre cómo se gestionan conversaciones sensibles. En respuesta, la empresa anunció nuevas herramientas de supervisión para padres y un sistema de detección de edad destinado a activar salvaguardas reforzadas.
OpenAI también reportó que, en una evaluación de más de mil conversaciones con desafíos relacionados con salud mental, su versión más reciente de GPT-5 cumplió el 92% de los comportamientos esperados, frente a un 27% de la versión anterior. La compañía afirmó estar incorporando nuevas formas de medición para vigilar señales como dependencia emocional y emergencias no suicidas vinculadas con trastornos mentales.
En medio de estas tensiones, Sam Altman, CEO de OpenAI, anunció que a partir de diciembre los usuarios adultos verificados podrán tener conversaciones eróticas con ChatGPT, una decisión que contrasta con la línea más restrictiva aplicada tras la demanda mencionada. Altman dijo que la empresa había vuelto demasiado rígido al sistema para proteger a personas con condiciones de salud mental, pero reconoció que ese enfoque lo hacía “menos útil” para quienes no enfrentaban estos problemas.
La discusión que surge de estos datos no se limita al volumen de usuarios afectados, sino al papel tecnológico que hoy cumplen los modelos generativos. Millones de personas están confiando emociones y situaciones límite a un software entrenado estadísticamente a partir de patrones lingüísticos, y aunque OpenAI insiste en que estas interacciones son raras, su escala deja claro que la inteligencia artificial ya opera como un interlocutor emocional para una parte significativa del mundo.
