OpenAI presentó ChatGPT Health: cuando la IA entra en la historia clínica
- Redacción IT NOW
- hace 11 horas
- 3 Min. de lectura
La empresa una nueva funcionalidad que permite a los usuarios integrar sus historiales médicos electrónicos y datos de aplicaciones de bienestar para obtener respuestas más contextualizadas sobre su salud. La iniciativa busca transformar la forma en que las personas acceden y entienden su información médica, pero también reabre el debate sobre privacidad, regulación y los límites del uso de inteligencia artificial en un sector altamente sensible.
La inteligencia artificial está ampliando sus fronteras hacia uno de los terrenos más sensibles y complejos para cualquier tecnología: la salud personal. OpenAI lanzó ChatGPT Health, una nueva pestaña dentro de su popular chatbot diseñada para integrar y contextualizar datos médicos del usuario, desde historiales clínicos electrónicos hasta información de apps de bienestar.
ChatGPT Health no es solo un nuevo “módulo de preguntas médicas”. Es una experiencia separada y específica que permite a las personas conectar sus registros médicos electrónicos, así como aplicaciones de bienestar como Apple Health, MyFitnessPal, Peloton o Weight Watchers, con la inteligencia del modelo. El objetivo declarado por OpenAI es ofrecer respuestas más relevantes y personalizadas, por ejemplo, explicando resultados de análisis, ayudando a prepararse para consultas médicas, orientando sobre rutinas de ejercicio o incluso clarificando opciones de seguros de salud basadas en hábitos individuales.
Este lanzamiento responde al hecho de que centenares de millones de personas preguntan sobre salud cada semana a ChatGPT y ya utilizan la IA para navegar temas médicos, muchas veces fuera del horario de atención de profesionales sanitarios.
OpenAI ha rodeado ChatGPT Health con un discurso centrado en privacidad y control del usuario. La información de salud se guarda en un espacio aislado, separado del resto de chats, con protecciones adicionales y sin utilizarse para entrenar los modelos de base. El usuario puede revisar, eliminar o desconectar sus datos en cualquier momento.
Sin embargo, estas protecciones no equivalen a las garantías legales que aplican en un entorno clínico tradicional. Por ejemplo, en Estados Unidos la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA) no cubre este tipo de producto de consumo, lo que deja un vacío regulatorio significativo sobre cómo se puede usar, compartir o incluso exigir acceso a esa información en contextos judiciales.

Además, no hay cifrado de extremo a extremo, y los datos pueden estar sujetos a solicitudes legales válidas. Aunque OpenAI enfatiza que no está diseñado para diagnosticar ni tratar enfermedades, la línea entre apoyo informativo e interpretación clínica es difusa, especialmente cuando se trata de decisiones personales de salud.
Una de las principales motivaciones de OpenAI es aliviar la fragmentación de la información de salud: historiales dispersos en portales, resultados de laboratorios en PDFs o datos de distintas apps que rara vez se conectan entre sí. ChatGPT Health promete reunirlos de forma comprensible y contextualizada para el usuario.
Pero la comunidad médica y tecnóloga ha señalado riesgos reales. Estudios académicos recientes han mostrado que los modelos de lenguaje pueden producir respuestas inseguras o imprecisas ante consultas médicas complejas, con tasas no despreciables de recomendaciones potencialmente dañinas cuando operan sin supervisión profesional.
Este contexto es importante: muchos usuarios ya utilizan IA para explorar síntomas, comprender tratamientos o navegar sistemas de salud complejos, y la tentación de confiar en una herramienta con acceso a tu historia clínica es fuerte. Pero la falta de regulación, los límites de la tecnología y el potencial de generar información errónea o malinterpretada siguen siendo preocupaciones significativas.
ChatGPT Health representa un claro esfuerzo de OpenAI por convertirse en una interfaz central para la gestión de información personal, desde salud hasta finanzas o educación. El impulso es comprensible: millones de personas ya recurren a estas herramientas para resolver dudas que los sistemas tradicionales no siempre atienden de forma oportuna.
No obstante, abrir la puerta a que una empresa tecnológica acceda voluntariamente a datos tan sensibles exige marcos regulatorios sólidos, transparencia y educación al usuario. La promesa de empoderar al individuo con su información médica choca de frente con preguntas sobre privacidad, responsabilidad, seguridad y la inevitable tensión entre conveniencia y riesgo.
