La reciente presentación de ChatGPT Salud (ChatGPT Health) por parte de OpenAI marca un punto de inflexión en la relación entre Inteligencia Artificial y salud. No hablamos de un uso informal de un chatbot generalista, sino de una funcionalidad específicamente diseñada para interactuar con información sanitaria, interpretar datos de salud y acompañar al usuario en procesos relacionados con su bienestar y su atención médica.
Precisamente por eso, conviene explicar con claridad qué es, cómo funciona, qué promete OpenAI, por qué Europa muestra reticencias y, sobre todo, qué riesgos reales puede tener para las personas si se utiliza sin garantías de seguridad.
¿Qué es exactamente ChatGPT Salud?
ChatGPT Salud es un entorno específico dentro de ChatGPT que permite al usuario formular preguntas de salud y bienestar y, en determinados casos, conectar datos procedentes de aplicaciones y dispositivos de seguimiento, como Apple Health o MyFitnessPal. Su finalidad declarada es ayudar a interpretar resultados de pruebas, preparar consultas médicas, comprender hábitos de salud o recibir orientación general.
OpenAI insiste en que no se trata de una herramienta de diagnóstico ni de tratamiento, sino de un sistema de apoyo informativo. Sin embargo, su valor diferencial no está solo en responder preguntas, sino en organizar la información, priorizar riesgos, sugerir hipótesis y estructurar el relato del paciente antes de llegar al sistema sanitario.
Y ahí es donde empiezan mis preguntas conmigo mismo.
¿Cómo funciona y cómo se interrelaciona con otros datos?
El sistema se basa en modelos de lenguaje entrenados para reconocer patrones, interpretar textos y generar respuestas coherentes. Cuando se incorporan datos de salud, ya sean introducidos manualmente o conectados desde aplicaciones externas, el modelo no “comprende” clínicamente, pero sí relaciona información, detecta regularidades y genera narrativas plausibles (las que cuando lees te encajan perfectamente).
Esta capacidad de generar explicaciones convincentes es, al mismo tiempo, su mayor fortaleza y su mayor riesgo. La IA puede equivocarse con una prosa impecable, y en salud esa combinación es especialmente peligrosa si se percibe como consejo experto.
¿Qué dice OpenAI sobre privacidad y uso de datos?
OpenAI afirma que ChatGPT Salud funciona como un espacio separado, con protecciones reforzadas, y que las conversaciones no se utilizan para entrenar sus modelos fundacionales. También sostiene que los datos pueden eliminarse y que existen límites temporales para su conservación, salvo obligaciones legales o de seguridad.
Son compromisos relevantes, pero no suficientes por sí solos. En salud, la confianza no se basa solo en promesas técnicas, sino en gobernanza verificable, auditorías independientes y capacidad real del ciudadano para entender, controlar y revocar lo que comparte (lo que conocemos como alfabetización digital en salud).
Aun así, la cuestión de fondo no es solo qué dice OpenAI, sino qué ocurre cuando estos sistemas interactúan con personas en situaciones de vulnerabilidad real. Y aquí ya no hablamos de hipótesis futuras, sino de casos documentados.
Las demandas contra empresas de Inteligencia Artificial por su papel en conductas suicidas son cada vez más frecuentes. En Estados Unidos, Google y Character.AI alcanzaron recientemente un acuerdo extrajudicial tras la denuncia de una madre cuyo hijo de 14 años se suicidó después de mantener durante meses una relación emocional con un chatbot que se hacía pasar por una persona real e incluso por un terapeuta. El menor llegó a expresar ideas suicidas en esas conversaciones. El caso se suma a otros similares y marca un punto de inflexión: por primera vez, la justicia empieza a examinar hasta qué punto las plataformas de IA tienen responsabilidad en la prevención del daño cuando detectan señales claras de riesgo vital. Te invito a conocer más sobre estos casos en este episodio de podcast ”Hoy en EL PAÍS”.
Estos episodios no ocurren en el vacío. Se producen en un contexto de creciente malestar psicológico, especialmente entre jóvenes. Según datos de UNICEF España, más del 40 % de los jóvenes presenta problemas de salud mental. Al mismo tiempo, estudios recientes indican que uno de cada cuatro estadounidenses estaría dispuesto a utilizar una IA como terapeuta. No porque confíe más en la tecnología que en los profesionales, sino porque no encuentra alternativas accesibles y, además, hablando con este tipo de IA no sientes vergüenza de expresarte y enfrentarte a contar tus pensamientos. Esta combinación de vulnerabilidad emocional, soledad y sistemas conversacionales que simulan escucha y acompañamiento, es especialmente delicada cuando la herramienta no tiene capacidad clínica, ni responsabilidad legal directa, ni obligación asistencial. ¿Quién se responsabiliza de ello?
Estos ejemplos ayudan a entender que el riesgo no está únicamente en el uso explícitamente sanitario, sino en la relación que se establece. Cuando un sistema es percibido como interlocutor fiable, empático o experto, su influencia puede ser significativa incluso sin ofrecer diagnósticos ni tratamientos. Y es precisamente este tipo de impacto el que preocupa a los reguladores.
¿Por qué Europa es especialmente cauta?
No es casualidad que ChatGPT Salud no esté disponible inicialmente en la Unión Europea. Europa cuenta con dos marcos regulatorios clave:
El Reglamento General de Protección de Datos (RGPD), que considera los datos de salud como especialmente sensibles y exige finalidades claras, minimización de datos, consentimiento informado y derechos efectivos de acceso, rectificación y supresión.
Y la Ley de Inteligencia Artificial (AI Act), que clasifica muchos usos de la IA en salud como de alto riesgo, obligando a evaluaciones previas, documentación exhaustiva, supervisión humana y control de sesgos.
En este contexto, cualquier herramienta que procese datos sanitarios y pueda influir en decisiones de salud debe demostrar no solo cumplimiento legal, sino garantías reforzadas de seguridad, transparencia y responsabilidad. La exclusión inicial de Europa no es ideológica: es regulatoria y ética.
En este punto, me pregunto, ¿por qué seguimos utilizando OpenAI cuando sabemos que la regulación y ética están comprometidas por tener su base en Estados Unidos? Deberíamos utilizar herramientas que tengan sus servidores en la Unión Europea con una regulación clara y más segura.
Riesgos clínicos reales: ¿qué le puede pasar a la gente?
Los riesgos no son teóricos. Son concretos y conocidos:
Una falsa sensación de seguridad puede retrasar la consulta sanitaria.
Una interpretación errónea puede generar ansiedad innecesaria o decisiones precipitadas.
Una narrativa bien construida puede condicionar la relación profesional-paciente, desplazando el foco de la exploración clínica a la negociación de un “guion” previo.
La priorización incorrecta de riesgos puede llevar a infravalorar síntomas relevantes o sobredimensionar otros irrelevantes.
En salud, no hace falta que la IA diagnostique mal para causar daño. Basta con que influya en conductas, tiempos o percepciones creando esa falsa seguridad en nosotros que no nos deja tomar la decisión correcta en salud.
Entonces, ¿qué debería saber y hacer la ciudadanía?
La Inteligencia Artificial puede aportar valor en salud, pero no es infalible, se equivoca. Por eso, mientras se avanza en regulación y garantías, conviene ser claros.
Por tu seguridad, nunca introduzcas en ChatGPT Salud:
Informes médicos completos con datos identificativos.
Resultados de pruebas diagnósticas asociados a tu nombre, DNI o número de historia clínica.
Datos genéticos o antecedentes familiares sensibles.
Información sobre enfermedades graves si no es estrictamente necesaria y anonimizada.
Decisiones terapéuticas sin haberlas contrastado con un profesional sanitario.
Datos de menores o de terceras personas.
La tecnología puede ayudarnos a cuidarnos mejor, pero no sustituye al criterio clínico, la relación terapéutica ni el marco ético que sostiene la atención sanitaria. En Europa, la cautela es una forma de proteger a las personas. Y en salud, eso no es opcional.






