No soy experto en salud, eso se lo dejo a mi hermano, que es farmacéutico y optometrista. Pero quiero reflexionar sobre los dos lanzamientos de OpenAI y Anthropic relacionados con la misma.
Durante años, cuando algo nos dolía -y por pereza a las largas esperas del CAP-, acudíamos a Google con una mezcla de curiosidad y miedo. Un síntoma menor en cuestión de clics nos devolvía un diagnóstico. Era una reacción rudimentaria, de resultados imprecisos, pero profundamente humana: buscar respuestas cuando el cuerpo lanza señales que no entendemos.
Hoy ese gesto ha cambiado. Ya no buscamos. Conversamos. Y lo hacemos con sistemas que no solo devuelven enlaces, sino que escuchan, contextualizan, recuerdan y responden con una voz calmada. La pregunta ya no es “qué tengo”, sino “qué me pasa… y qué hago ahora”.
Aquí es donde los modelos de lenguaje han dado un salto cualitativo hacia uno de los territorios más sensibles que existen: la salud.
OpenAI y Anthropic lo saben. Y por eso han decidido entrar, con cuidado quirúrgico, pero ambición estratégica, en el espacio de la salud y las ciencias de la vida. No como médicos (aún no), sino como asistentes personales de salud. Una categoría ambigua, poderosa y profundamente transformadora.
Cuando la IA deja de ser herramienta y se convierte en confidente
Los datos son claros y, al mismo tiempo, inquietantes. El uso de ChatGPT ha evolucionado de manera acelerada desde tareas laborales hacia usos personales. Más del 70 % de las interacciones ya no están relacionadas con el trabajo. Y dentro de ese universo, las conversaciones sobre bienestar, autocuidado, síntomas, rutinas de salud, ansiedad, ejercicio o alimentación crecen de forma sostenida.
No hablamos de diagnósticos clínicos. Hablamos de algo más sutil y profundo: apoyo a la toma de decisiones personales relacionadas con el cuerpo y la mente. La IA se ha convertido, para millones de personas, en un espacio seguro donde preguntar lo que no se atreven a verbalizar en una consulta médica de diez minutos.
Claude, desde el posicionamiento ético de Anthropic, ha reforzado su apuesta por el sector healthcare y life sciences con un discurso claro: modelos entrenados para ser más cuidadosos, menos afirmativos, más conscientes de los riesgos. ChatGPT Salud, por su parte, se presenta como un entorno donde la información sanitaria se ofrece con disclaimers, capas de seguridad y una narrativa de acompañamiento, no de autoridad.
Pero seamos honestos: el usuario no percibe estas sutilezas técnicas. Percibe algo mucho más poderoso: disponibilidad constante, lenguaje comprensible, empatía simulada y ausencia de juicio.
Y eso cambia las reglas del juego.
El verdadero cambio no es tecnológico, es cultural
El salto de los modelos de lenguaje al mundo de la salud no es solo una evolución de producto. Es una mutación cultural. Estamos delegando, poco a poco, una parte de nuestra autointerpretación corporal a sistemas algorítmicos.
Antes, la autoridad médica estaba mediada por instituciones, rituales y jerarquías. Hoy, la primera capa de interpretación ocurre en la intimidad de una conversación con una IA. Una conversación que no genera vergüenza, que no mira el reloj y que responde siempre.
Para las personas, esto es empoderador.
Para los sistemas sanitarios, potencialmente eficiente.
Para la industria farmacéutica y médica… profundamente disruptivo.
Porque si el primer punto de contacto en la salud ya no es el médico, ni el farmacéutico, ni la web corporativa, sino un modelo de lenguaje, ¿quién controla el relato? ¿Quién influye en la percepción de riesgo, de necesidad, de urgencia?
Aquí es donde las agencias especializadas, los equipos de marketing y comunicación sanitaria deberían centrar su punto de mira, con la prudencia que requiere. Muchas, ojo, están en Europa. Y aquí las cosas son de otro modo.
Europa: ¿el continente de la prudencia o del retraso estratégico?
La gran pregunta es evidente: ¿Tendrían cabida ChatGPT Salud o Claude for Healthcare en Europa?
Desde un punto de vista regulatorio -y sin ser experto-, el escenario es complejo. GDPR, normativa de protección de datos sanitarios, el nuevo Reglamento Europeo de IA, las directivas sobre dispositivos médicos, la farmacovigilancia, la comunicación de medicamentos… Europa no juega en el mismo tablero que Estados Unidos.
Aquí, la salud es (y debe seguir siendo) un ámbito regulado y protegido. El tratamiento de datos sensibles, la trazabilidad de las decisiones y la responsabilidad legal son líneas rojas claras. Un asistente de IA que “aconseja” puede convertirse, en segundos, en un problema jurídico.
Pero cuidado con la trampa mental: que algo no pueda desplegarse hoy no significa que no vaya a hacerlo mañana. La historia de la tecnología está llena de “esto aquí no pasará” que acabaron pasando.
La cuestión no es si estos sistemas llegarán a Europa. La cuestión es en qué forma, bajo qué modelo y con qué actores locales implicados.
¿Y si Europa acordase ser “entrenador” oficial de la máquina, no solo vigilante?
Hay un debate que empieza a emerger con fuerza -aunque todavía en voz baja- en foros científicos, regulatorios y corporativos: ¿Y si la industria médica, académica y farmacéutica decidiera participar activamente en el entrenamiento de los grandes modelos de lenguaje?
No como meros proveedores de papers o bases de datos abiertas, sino como garantes de conocimiento verificado.
Porque hoy, aunque OpenAI o Anthropic extremen las precauciones, los LLMs aprenden de un ecosistema informativo profundamente heterogéneo: artículos científicos, guías clínicas, divulgación de calidad… y también foros, blogs, contenido obsoleto o directamente erróneo. El modelo “promedia” el conocimiento disponible. Y en salud, promediar no siempre es una buena idea.
Algunos actores empiezan a explorar esta vía. Se habla ya de:
– Datasets médicos curados, con evidencia clínica validada y versionada.
– Capas de conocimiento científico trazable, donde cada respuesta pueda remontarse a guías, consensos o literatura revisada por pares.
– Modelos especializados o copilotos clínicos, entrenados con datos aportados por hospitales, sistemas públicos de salud, sociedades médicas, bajo estrictos marcos de gobernanza.
La lógica es clara: si millones de personas ya usan modelos generalistas como asistentes de salud, mejor que esos modelos “piensen” con conocimiento médico robusto, actualizado y contextualizado, que con una mezcla estadística de Internet.
Pero aquí aparece el gran dilema europeo.
Entrenar un modelo con datos médicos no es solo una cuestión técnica. Es una cuestión de poder, responsabilidad y soberanía del conocimiento. ¿Quién decide qué evidencia es válida? ¿Quién responde ante un error?
¿Puede una compañía farmacéutica influir -directa o indirectamente- en la forma en que un modelo “explica” una patología o un tratamiento?
Este es el punto donde Europa podría marcar la diferencia. No copiando el modelo estadounidense, sino proponiendo algo radicalmente distinto: LLMs de salud entrenados como infraestructuras de confianza, con participación pública-privada, auditoría científica y límites claros a su uso comercial.
No para sustituir al médico.
No para prescribir.
Sino para ordenar el caos informativo sanitario en el que ya vivimos.
Para todos esto supone un giro cultural profundo.
Ya ahora el dilema: ¿quién cuida al cuidador digital?
La paradoja es evidente. Nunca hemos tenido tanto acceso a información sanitaria y, al mismo tiempo, nunca ha sido tan fácil caer en la sobreinterpretación, la ansiedad o la dependencia de sistemas que no sienten, no enferman y no asumen consecuencias.
La entrada de ChatGPT y Claude en el mundo de la salud no es el final del médico, ni de la industria farmacéutica, ni del marketing sanitario. Pero sí es el principio de algo más incómodo: la pérdida del monopolio del relato sobre el cuerpo humano.
Europa tiene ahora una oportunidad histórica. No solo para regular, sino para liderar un modelo de salud digital ético, humano y responsable, donde la IA sea un apoyo y no un oráculo.


