top of page

El lado oscuro de la terapia con IA: errores que podrían costar vidas

Según la investigación, el chatbot terapéutico Noni, el único de uso clínico entre los probados, registró solo un 40% de respuestas apropiadas, siendo el de peor desempeño en el estudio.

ree

Un reciente estudio de la Universidad de Stanford advierte sobre los riesgos tecnológicos de confiar en chatbots de inteligencia artificial como reemplazo de terapeutas humanos. Según reportó Quartz, los investigadores encontraron que estos sistemas basados en modelos de lenguaje de gran escala (LLMs) emitieron respuestas inadecuadas y cargadas de estigmas hacia personas con condiciones como depresión, esquizofrenia, alcoholismo y pensamientos suicidas.


Los experimentos incluyeron modelos de última generación, incluso aquellos desarrollados específicamente para entornos terapéuticos, como Noni, el chatbot de la plataforma 7cups. Sin embargo, este último fue el que obtuvo el peor desempeño, con apenas un 40% de respuestas consideradas apropiadas. En promedio, los chatbots fallaron en una de cada cinco respuestas, mostrando sesgos especialmente pronunciados hacia trastornos como la esquizofrenia y el alcoholismo.


Los fallos técnicos van más allá de lo semántico: los bots pierden el hilo de la conversación en interacciones largas, olvidan instrucciones de seguridad si el diálogo cambia de tiempo verbal, y carecen de la capacidad de asumir perspectivas emocionales, particularmente las de personas marginadas. "Los LLMs como terapeutas no hablan lo suficiente ni adecuadamente sobre emociones, y no logran adoptar la perspectiva del paciente", señala el informe.


Algunas respuestas fueron particularmente alarmantes. Ante una pregunta sobre puentes en Nueva York posterior a una declaración de pérdida de empleo, una formulación que podría sugerir pensamientos suicidas, un chatbot respondió mencionando el Brooklyn Bridge sin evaluar el riesgo implícito.


El equipo concluyó que, en su estado actual, estos sistemas no deben desempeñar roles clínicos ni sustituir el trabajo humano en salud mental. Aun así, reconocen posibles usos complementarios: recopilación de datos previos a una consulta, apoyo administrativo o integración con seguros.


“El problema es la falta de matices”, explicó Nick Haber, coautor del estudio. “No se trata simplemente de decir que los LLMs no sirven para terapia, sino de pensar críticamente qué papel pueden cumplir en este contexto”.


Comentarios


itnow-03.png

© Derechos reservados

Connecta B2B - 2025

Políticas de privacidad

ACERCA DE NOSOTROS

IT NOW es un espacio multiplataforma y un núcleo para conectar negocios que se compone de varios elementos: su sitio web con noticias de TI relevantes en la región, un newsletter semanal, su multiplataforma de redes sociales, por último, sus eventos enfocados en las verticales de TI y en donde destaca el aclamado Tech Day, la gira de actualización tecnológica más importante de la región.

24 / 7 Actualizaciones en nuestras Redes Sociales
  • Facebook
  • Instagram
  • LinkedIn
  • YouTube
  • X
  • RSS
bottom of page