Obstáculos en el camino: desafíos de la regulación RIA

La capacidad de la IA para detectar patrones que pueden ser invisibles al ojo humano mediante el análisis de grandes volúmenes de datos permite llegar a diagnósticos más precisos y, en algunos casos, anticipar enfermedades antes de que los síntomas aparezcan. Esto promete revolucionar la forma en que se practica la medicina. Sin embargo, esta revolución trae consigo una serie de desafíos, especialmente en términos de responsabilidad legal y ética. En este apartado vamos a centrarnos en los retos y desafíos regulatorios que contrae la aplicación del RIA en el ámbito de la salud.

La medicina del siglo XXI se caracteriza por su enfoque predictivo, impulsado en gran medida por la Inteligencia Artificial. Esta tecnología ha transformado la práctica médica, permitiendo no solo diagnosticar enfermedades sino anticiparlas, mejorando los tratamientos mediante el análisis de patrones y datos históricos de los pacientes. La IA en medicina abarca desde el análisis de imágenes médicas hasta sistemas de apoyo a la decisión clínica, ofreciendo beneficios como mayor precisión en el análisis de datos y reducción de errores médicos. Sin embargo, también presenta desafíos éticos, prácticos y legales.

Algunos retos actuales incluyen:

Interpretación correcta de análisis generados por algoritmos.

Falta de herramientas tecnológicas integradas.

Riesgo de confianza excesiva en algoritmos sin supervisión adecuada.

La IA ha evolucionado significativamente desde sus inicios teóricos en 1950 con Alan Turing, pasando por hitos como el Test de Turing en 2014, hasta desarrollos recientes como ChatGPT3 y DALL-E 2, que han revolucionado la generación de texto e imágenes respectivamente. En medicina, la IA ha impactado diversas especialidades:

Radiología: análisis de imágenes médicas para detectar anomalías.

Oncología: identificación y clasificación de tipos de cáncer.

Cardiología: predicción de eventos cardiovasculares.

Oftalmología: detección de enfermedades oculares.

Dermatología: análisis de imágenes de piel para detectar afecciones.

Neurología: diagnóstico y monitoreo de enfermedades neurológicas.

La creciente autonomía de estos sistemas plantea la posibilidad de que el papel humano se vuelva principalmente supervisor en el futuro próximo, lo que subraya la importancia de desarrollar pautas adecuadas para la interacción y uso correcto de la IA en el diagnóstico médico.

Conviene hablar de la “necesidad de humanización y derechos del paciente” donde es necesario fomentar la transparencia y la participación pública en la IA de la salud. Los pacientes carecen de información individualizada sobre si sus datos están siendo utilizados para crear un sistema específico. Además, aunque los organismos responsables tienen obligaciones de transparencia, la información que proporcionan no es detallada ni personalizada. Esto lleva a cuestionar la validez del consentimiento informado, ya que es complicado obtenerlo adecuadamente cuando los pacientes no conocen el uso específico de sus datos, especialmente si se considera que el desarrollo de IA se asemeja a la investigación clínica. Por último, esta situación parece contradecir el artículo 14 de la Declaración de Taipei de la Asociación Médica Mundial1 que establece el derecho de las personas a ser informadas sobre el uso de sus datos de salud.

Con este contexto, ¿qué soluciones -a priori- podrían plantearse tras un estudio general?

La alternativa para mejorar el equilibrio entre el uso de datos sanitarios para el desarrollo de IA y los derechos de los pacientes será con el uso de:

Sistema de notificación individual. Informar a cada paciente a través de portales de acceso a datos sanitarios.

Opción de exclusión (opt-out). Similar al sistema de cookies en sitios web, permitiendo a los pacientes oponerse al uso de sus datos.

Consentimiento negativo. Aunque no es ideal, se considera una mejora sobre el sistema actual.

Mejor alineación con el RGPD. Esta propuesta seguiría mejor la lógica del Reglamento General de Protección de Datos.

Distinción entre investigación y desarrollo comercial. Se cuestiona el uso de datos para productos comerciales sin consentimiento explícito.

Mejora sobre la situación actual. Ofrece más control a los pacientes que el sistema vigente donde son proveedores involuntarios de datos.

Se han adoptado medidas para promover la innovación y la competitividad, como exenciones para investigación y sistemas de código abierto, así como la implementación de sandboxes regulatorios. Se busca un equilibrio más justo entre la innovación en IA en salud y la protección de los derechos de los pacientes, dando a estos últimos más información y control sobre el uso de sus datos.

Por otro lado, se busca armonizar de forma específica 5 normas como son el Reglamento europeo de IA o RIA, el Reglamento general de protección de datos, el Reglamento de Gobernanza de Datos, la propuesta del Espacio Europeo de datos sanitarios o EEHS y la directiva europea de productos sanitarios en el ámbito de la IA aplicada a la salud.

Se podrían considerar las siguientes acciones:

Alineación de definiciones y conceptos

Establecer definiciones comunes para términos clave como “sistema de IA”, “alto riesgo”, “datos sanitarios”, “productos software”, etc. que sean consistentes en todas las normativas. Por ejemplo, en Australia se ha lanzado una consulta a la Comisión de Seguridad (TGA)2 para preguntar acerca de las herramientas digitales de salud mental y otros productos que son exentos de la obligatoriedad de cumplimiento de calidad y ante la preocupación de la velocidad del IA, los cuales fueron excluidos por tener riesgo bajo en 2021.

Creación de un marco de gobernanza unificado

Establecer un organismo coordinador a nivel europeo que supervise la implementación coherente de las cuatro normativas en el ámbito de la IA en salud.

Desarrollo de estándares técnicos comunes

Elaborar estándares técnicos armonizados que cumplan con los requisitos de las cuatro normativas simultáneamente.

Procedimientos de evaluación de conformidad integrados

Diseñar procesos de evaluación que permitan verificar el cumplimiento de las cuatro normativas de manera conjunta para sistemas de IA en salud.

Respecto el enfoque técnico

En primer lugar, debemos hablar de la procedencia y transparencia de datos. El Espacio Europeo de Datos Sanitarios o EHDS va a desempeñará un papel crucial para mejorar la procedencia de los datos y hacer la IA en salud más transparente y equitativa.

En segundo lugar, la estandarización y ética son absolutamente relevantes. Por ello, se propone desarrollar un lenguaje estandarizado para describir el entrenamiento y pruebas de modelos de IA, con respaldo de la industria y reguladores (Dmitry Etin, 2024)3. Se piensa en un lenguaje estandarizado que la industria descriptivo específico de dominio (DSL) (Dmtry Etin) donde se desea que nos podamos asegurar de que haya un respaldo de la industria y los reguladores para este esfuerzo de estandarización (White, M., et al. (2024)4. Con ello se perseguiría la limpieza de datos evitando la introducción inadvertida de sesgos.

También, se apuesta por la creación de la figura del “delegado de IA”, con sus conocimientos técnicos especializados en materia algorítmica el cual sea capaz de supervisar y evaluar el rendimiento de los algoritmos sobre todo de “grupos vulnerables”.

En tercer lugar, debemos apostar por la “estabilidad y consistencia” en los sistemas IA, para ello, se plantea la importancia de la estabilidad en el entrenamiento de IA, buscando resultados consistentes ante cambios menores en los datos.

Se introducen conceptos matemáticos como “estabilidad” y “ergodicidad” para garantizar robustez y fiabilidad de los modelos. son esenciales para garantizar la fiabilidad y generalización de los modelos de IA en entornos clínicos, donde los datos pueden ser heterogéneos y variar significativamente entre poblaciones.

Las inteligencias artificiales pueden entrenarse con imágenes médicas, como resonancias magnéticas y tomografías, para identificar patologías. En cualquier caso, es esencial fomentar la colaboración entre investigadores, proveedores de salud y empresas.

Un ejemplo es Sycai Medical, que tiene una especificidad del 81,8% y sensibilidad del 93,1% en la detección de quistes pancreáticos. Sin embargo, su entrenamiento se ha basado en datos de un solo hospital, lo que limita su precisión y requiere más casos para mejorar la clasificación (García Dieste)5.

Se podría pensar que, en genómica, la Infraestructura de Datos Genómicos (GDI)6 podría impulsar estas mejoras y tomar un papel líder.

Lo cierto es que la regulación de la genómica y la inteligencia artificial en el ámbito médico es un desafío complejo que requiere un enfoque integral y multidisciplinario. En España contamos con un antecedente sólido como es el Convenio de Oviedo, oficialmente conocido como el Convenio para la Protección de los Derechos Humanos y la Dignidad del Ser Humano con respecto a las Aplicaciones de la Biología y la Medicina, es un tratado internacional de gran importancia en el campo de la bioética. Fue adoptado el 4 de abril de 1997 en Oviedo, España, por 21 países miembros del Consejo de Europa. Este convenio es el primer instrumento jurídico internacional de carácter obligatorio en materia de bioética. Su objetivo principal es proteger la dignidad, los derechos y las libertades fundamentales del ser humano frente a posibles aplicaciones abusivas, también, de los avances en biología y medicina.

Ahora bien, es probable que haya que abrir un debate sobre lo importante que puede ser desarrollar una legislación específica que aborde directamente el uso de la IA en genómica y medicina. Estas leyes deben ser lo suficientemente flexibles para adaptarse a los rápidos avances tecnológicos, pero también lo suficientemente robustas para proteger los derechos y la privacidad de los pacientes. Paralelamente, es crucial establecer comités de ética especializados que evalúen los proyectos de investigación y las aplicaciones clínicas, asegurando que se adhieran a principios éticos fundamentales. La protección de datos genómicos es otro aspecto crítico que requiere una atención especial. Es necesario reforzar la protección contra accesos no autorizados, la regulación del uso y compartición de estos datos en contextos de investigación y clínicos. En Europa estaremos pendientes de qué forma queda regulado estas cuestiones con la propuesta del EEHS y cuál será el nivel de eficacia de la norma.

En cuanto a los estándares técnicos, es esencial crear un proceso de certificación riguroso para los algoritmos de IA utilizados en medicina. Estos algoritmos deben someterse a pruebas exhaustivas y validación clínica antes de su implementación en entornos de atención médica. Además, es importante establecer estándares de interoperabilidad para asegurar la compatibilidad entre diferentes sistemas y bases de datos, facilitando así la colaboración y el intercambio de información entre instituciones y países. La supervisión y el monitoreo continuo son cruciales para garantizar la seguridad y eficacia de estas tecnologías a largo plazo. Esto puede lograrse mediante la creación o adaptación de agencias reguladoras específicas para supervisar el desarrollo y uso de la IA en genómica. Estas agencias deberían implementar auditorías periódicas de los sistemas de IA en uso clínico y establecer mecanismos para informar y analizar errores o problemas que puedan surgir.

La formación y educación juegan un papel vital en la implementación segura y efectiva de estas tecnologías. Es fundamental asegurar que los profesionales de la salud estén adecuadamente capacitados en el uso e interpretación de herramientas de IA y datos genómicos. Asimismo, es importante educar al público en general sobre los beneficios y riesgos asociados con estas tecnologías, fomentando una comprensión informada y un diálogo abierto sobre su uso en la atención médica.

Además, es necesario fomentar acuerdos internacionales para establecer estándares comunes y protocolos para compartir datos genómicos de manera segura y ética a nivel global. Esto no solo mejorará la calidad de la investigación y el desarrollo de nuevas terapias, sino que también ayudará a abordar cuestiones de equidad y acceso a nivel mundial. Las consideraciones éticas deben estar en el centro de cualquier marco regulatorio. Esto incluye desarrollar protocolos robustos para obtener el consentimiento informado de los pacientes, asegurar que estas tecnologías sean accesibles y beneficien a todos los grupos poblacionales, y exigir transparencia en cuanto al funcionamiento de los algoritmos de IA utilizados en la toma de decisiones médicas.

Bibliografía

Vid. https://www.wma.net/es/que-hacemos/etica-medica/declaracion-de-taipei/  (ult.consulta 11 de diciembre de 2024)

Vid. https://www.gadens.com/legal-insights/digital-tools-and-medical-devices-used-for-mental-health-is-yours-a-regulated-medical-device/ (ult. Consulta 11 de diciembre de 2024)

Vid. https://www.linkedin.com/posts/dmitryetin_ai-model-openness-framework-in-health-activity-7234875662971371520-tb9r/?utm_source=share&utm_medium=member_android (última consulta 11 de diciembre de 2024)

White, M.,  et al . (2024). The Model Openness Framework: Promoting Completeness and Openness for Reproducibility, Transparency, and Usability  in  AI (pre print). arXiv. https://arxiv.org/abs/2403.13784

García Dieste, S. (cfr.) Recopilación de soluciones de inteligencia artificial con Marcado CE en productos sanitarios de Clase IIa y IIb bajo la Medical Device Regulación y evaluación del asistente médico Sycai Medical. Universidad Europea de Madrid.

Vid. https://gdi.onemilliongenomes.eu (última fecha consultada 11 de diciembre de 2024).