No podemos hablar de abordar el efecto venturi sin analizar la eficiencia que debe partir de las decisiones que se tomen en los diferentes ámbitos, especialmente en el ámbito de la medicina.
La inteligencia artificial (IA) ha irrumpido con fuerza en la sanidad, prometiendo transformar radicalmente la atención médica. Sin embargo, esta transformación no será posible si no se adapta al complejo ecosistema en el que se toman las decisiones clínicas. La medicina no es un bloque homogéneo: las formas de decidir varían según la especialidad, el entorno organizativo y la trayectoria profesional. Este artículo defiende que la IA debe ajustarse a esa realidad diversa y desafiante, respetando las dinámicas clínicas y reconociendo los desajustes entre teoría y práctica que siguen presentes en el ejercicio diario.
IA en sanidad: el entusiasmo sin contexto conduce al fracaso
La inteligencia artificial se ha convertido en protagonista de congresos, jornadas y estrategias sanitarias. Su potencial para mejorar diagnósticos, personalizar tratamientos y optimizar recursos es indiscutible. Pero su implementación real dista mucho de ser automática. En muchos casos, se está intentando introducir la IA “a capón”, sin una comprensión profunda del contexto clínico al que debe servir. Y eso, como ocurre con cualquier innovación mal adaptada, conlleva un alto riesgo de fracaso.
El núcleo del problema no está en la tecnología, sino en su encaje. La IA sanitaria no puede desplegarse con éxito si no entiende —y respeta— el ecosistema decisional donde actúan los profesionales. La medicina, al contrario de lo que muchos discursos sugieren, no es un bloque homogéneo: cada especialidad, cada entorno organizativo (hospital, atención primaria, urgencias, unidades de crónicos…) y cada generación de médicos toma decisiones de forma distinta. La IA no puede imponerse como un modelo único. Tiene que adaptarse a esta diversidad.
La toma de decisiones clínicas: un proceso tan racional como imperfecto
Decidir en medicina no es un acto simple ni aislado. Es un proceso que combina razonamiento científico, experiencia acumulada, contexto organizativo y juicio ético. A lo largo de la historia, diferentes autores han intentado racionalizar ese proceso: desde el teorema de Bayes hasta los modelos de Markov, pasando por la medicina basada en la evidencia o los sistemas expertos como MYCIN.
Ya en 1959, Lusted y Ledley proponían usar herramientas matemáticas y probabilísticas para estructurar el razonamiento clínico. Más adelante, pioneros como David Eddy o Alvan Feinstein señalaron los límites de los modelos teóricos cuando se enfrentan a la realidad clínica, llena de incertidumbre, múltiples opciones válidas y pacientes que no siempre se ajustan a las guías.
Hoy, la medicina basada en la evidencia y la inteligencia artificial coexisten en un escenario donde la teoría no siempre encaja con la práctica. Las guías clínicas se aplican de forma desigual. Las decisiones compartidas con pacientes, aunque deseables, son difíciles de sistematizar. Y la variabilidad asistencial sigue siendo amplia incluso ante patologías frecuentes. La IA, para ser útil, debe ser capaz de operar dentro de esa complejidad, no encima de ella.
Una medicina diversa que exige tecnologías flexibles
No existe una única forma de ejercer la medicina. Ni siquiera dentro de una misma especialidad. La forma de decidir cambia según el lugar (consultas externas, urgencias, hospitalización), el tipo de paciente, la presión asistencial o incluso la experiencia del profesional. Un médico joven no razona igual que uno con 30 años de carrera; tampoco lo hace igual alguien que trabaja en una unidad rural con recursos limitados que otro que ejerce en un gran hospital terciario.
La inteligencia artificial, si quiere ser algo más que una promesa vacía, debe adaptarse a esta diversidad. No se trata solo de ajustar algoritmos, sino de comprender los procesos reales de toma de decisiones: sus tiempos, sus incertidumbres, sus márgenes de interpretación. Esto implica no solo tecnología, sino también cultura organizativa, modelos de validación clínica y marcos éticos adecuados.
¿Y la formación? Importante, pero no es la raíz del problema
Es cierto que muchos profesionales carecen de formación específica en razonamiento clínico estructurado, probabilidad, modelos de decisión o evaluación de tecnologías. Esta carencia dificulta la interpretación crítica de las recomendaciones generadas por sistemas de soporte o IA. Pero la raíz del problema no es formativa, sino sistémica: la falta de adaptación de las herramientas tecnológicas a la forma en que realmente se decide en medicina.
Esto no significa que la formación no sea necesaria —de hecho, lo es, y mucho—, pero sin una reflexión previa sobre cómo se toman las decisiones en los distintos contextos clínicos, cualquier estrategia formativa corre el riesgo de quedarse en un marco teórico sin aplicación práctica.
Conclusión: la IA no transformará la medicina, a menos que entienda cómo se decide
La verdadera revolución de la IA en sanidad no vendrá de su capacidad de procesamiento, sino de su capacidad de adaptación. Adaptación al contexto clínico, a la diversidad de prácticas, al juicio profesional y a la incertidumbre inherente a la medicina real. Para ello, debe integrarse con humildad y flexibilidad, complementando al profesional y no sustituyéndolo, y reconociendo que las decisiones clínicas son más que simples cálculos: son procesos complejos, humanos y profundamente contextuales.
La pregunta no es si la IA está preparada para transformar la sanidad. La pregunta es si la sanidad está lista para que esa IA se integre sin romper los equilibrios decisionales que sostienen el sistema. Para lograrlo, necesitamos menos discursos vacíos y más tecnología sensata, más pegada a tierra, más consciente de dónde —y cómo— se decide en medicina.