A continuación, reproducimos el artículo académico Implicaciones Éticas de la Aplicación de la Tecnología en el sector de la Salud Digital. Especial Mención a la Protección de Datos Personales en Big Data, Inteligencia Artificial, Iot y Blockchain, publicado en la revista Derecho General de Derecho Administrativo https://www.iustel.com/v2/revistas/detalle_revista.asp?id=1 (Edición Mayo 2022, revista indexada en Scopus, Q4).

Ya hemos publicado tres apartados y en este número de New Medical Economics le ofrecemos el cuarto y último: Implicaciones éticas y de la privacidad con el uso de IA.

Implicaciones éticas y de la privacidad con el uso de la IA

En la actualidad hay cada vez más proyectos de investigación con inteligencia artificial, por ejemplo, la amiloidosis cardíaca es una enfermedad rara de difícil diagnóstico, debido a que sus síntomas suelen confundirse con otros padecimientos propios de la edad. La Fundación San Juan de Dios y el Hospital San Juan de Dios de León desarrollaron un proyecto de investigación para mejorar la predicción de esta enfermedad usando inteligencia artificial. Sobre la base de diez años de historias clínicas anonimizadas de casi 16.000 pacientes, se realizó un estudio sobre una muestra de personas con fallo cardíaco logrando detectar cincuenta casos no diagnosticados1.

Y es que la única forma de pasar de un enfoque de salud «paliativo» a uno «preventivo» es incrementando el volumen de datos generado y alimentando con ellos algoritmos capaces de interpretarlos de manera automatizada (Dans, 2018)2. Para Smuha3, coordinadora del grupo de expertos de la inteligencia artificial de la Comisión Europea, «no hay duda de que la publicación de nuestros datos puede tener consecuencias muy positivas, por ejemplo, en el desarrollo de la inteligencia artificial con fines médicos, sin embargo, sigue siendo extremadamente difícil proteger estos datos adecuadamente». Es justo en este pudo donde la ética se aplica, concretamente, con un buen uso de software -en sus dispositivos médicos mientras se usa inteligencia artificial.

La consideración general 19 de la Resolución del Parlamento Europeo sobre las implicaciones de los macrodatos en los derechos fundamentales: privacidad, protección de datos, no discriminación, seguridad y aplicación de la ley (2016/2225(INI)4, ya indicaba que; «como consecuencia de los conjuntos de datos y sistemas de algoritmos que se utilizan al hacer evaluaciones y predicciones en las distintas fases del tratamiento de datos, los macrodatos no solo pueden resultar en violaciones de los derechos fundamentales de los individuos sino, también, en un tratamiento diferenciado y en una discriminación indirecta de grupos de personas con características similares, en particular en lo que se refiere a la justicia e igualdad de oportunidades en relación con el acceso a la educación y al empleo, al contratar o evaluar a las personas o al determinar los nuevos hábitos de consumo de los usuarios de los medios sociales (o incluso en base a la raza5 o el sexo6)».

La FDA  estadounidense, por ejemplo, ya tomó la iniciativa creando guidelines que abordaban cuestiones legales-éticas de importancia.

Pero ¿por qué es necesario estudiar el impacto de la inteligencia artificial, y en particular de los algoritmos desde el punto de vista de la ética? ¿cómo se comportan? ¿de qué manera y dónde afectan en los derechos de las personas?

Para poder entender cómo funciona la inteligencia artificial conviene mencionar las tres principales propiedades de los algoritmos (Monasterio, 2017)8-9:

  1. Universalidad. Significa que los algoritmos están presentes en muchas áreas de nuestra vida: consumo, política, salud, educación, etc.
  2. Opacidad o invisibilidad. Las características generales que tienen los algoritmos hacen que el daño que causan sea difícil de corregir, de identificar y/o asignar responsabilidades.
  3. Impacto en la vida de las personas. Piénsese en la discriminación social, económica, de acceso libre a la información y privación de libertad y discriminación y abuso de control, así, por ejemplo, las minorías (raza10, sexo11, pobreza12) son discriminadas por el mero hecho de serlo frente a la mayoría.

Según este autor «los algoritmos no son neutrales, objetivos o preanalíticos» puesto que “se enmarcan en un contexto tecnológico, económico, ético, temporal y espacial. Por su parte, Aswani13, señala que «los avances en inteligencia artificial hacen que sea más fácil para las organizaciones obtener acceso a los datos de salud, lo que aumenta la tentación de que las empresas los utilicen de manera ilegal o no ética» y señaló que «los empresarios o los prestamistas hipotecarios podrían potencialmente usar esta inteligencia para discriminar, por ejemplo, por estado de embarazo o discapacidad».

Así, por ejemplo, los hallazgos de un estudio14 sugieren que las prácticas actuales para «desidentificar datos» de actividad física son insuficientes para la privacidad y que la «desidentificación» debe agregar los datos de actividad física de muchas personas para garantizar la privacidad de las personas. Los investigadores15 demuestran el potencial de los datos de actividad recopilados por los relojes inteligentes, teléfonos inteligentes y rastreadores de acondicionamiento físico disponibles en el mercado para contribuir a la reidentificación probabilística de los participantes de la investigación debido a que los datos del rastreador de actividad se unen a una larga lista de tipos de datos informados anteriormente que pueden ser identificados nuevamente. Pensemos, por ejemplo, en sanidad pública donde en algunos Estados están usando algoritmos patentados aplicados al monitoreo de medicamentos recetados en bases de datos para identificar posibles compras de médicos o prescripciones inadecuadas (AInow, 2018)16.

También hay que preocuparse por las cuestiones éticas de inteligencia artificial y privacidad en el ámbito de la salud, la neurotecnología y el neurohacking donde según el Word Economic Forum17, los científicos están alertando de que inteligencia artificial podría «hackear la mente humana y controlar los pensamientos, decisiones y emociones». De hecho, los científicos trabajan con un ensayo clínico de interfaz mente-ordenador «brain-computer interface» en donde la inteligencia artificial conecta con la mente del paciente para “leer” sus pensamientos incluso aunque el paciente no haya dado la orden. Por todo ello, los científicos dicen que, ahora, es crucial considerar las posibles consecuencias incluido «el derecho de las personas a tener una vida mental privada».

Para unos investigadores18 la solución a los algoritmos con sesgos discriminatorios se encuentra en dejar de entrenar los algoritmos con el objetivo de igualar el desempeño de los expertos humanos. Según los datos recopilados en el sistema sanitario nacional estadounidense una investigación de radiología de la rodilla donde se califica el dolor mediante la escala KLG han encontrado que los médicos que utilizan este método puntúan sistemáticamente el dolor de los pacientes negros en una medida mucho menos grave de lo que ellos mismos aseguran estar experimentando. La propia metodología KLG podría estar sesgada, ya que se desarrolló hace varias décadas con poblaciones británicas blancas.

Entonces, nos cuestionaremos ¿cómo podemos hacer responsables a los que no son responsables? A priori, para procurar superar estos desafíos podemos plantearnos las siguientes medidas:

  1. Realizar una posible evaluación constitucional del sistema de desde la perspectiva de los derechos humanos donde no debería aceptarse un sistema de inteligencia artificial que eliminara los derechos básicos de las personas.
  2. Fomentar la educación en privacidad de todos los intervinientes en el desarrollo de las herramientas.
  3. Comunicar con lenguajes sencillo.
  4. Crear una plataforma independiente nacional para auditar algoritmos.
  5. Crear incentivos para la investigación en inteligencia artificial ética.
  6. Reforzar la ética a través de la creación de comités de ética difundiendo buenas prácticas en cada sector y revisando los códigos de ética (CNIL)19.
  7. Mejorar del diseño del sistema del para evitar el efecto de «caja negra».

Respecto a ésta última, cabe señalar que los científicos de datos de las empresas deberán acercar lo máximo posible a la transparencia para que los individuos estén informados. Por ejemplo, Pretzel20 es un sistema de servicio de predicción que presenta una arquitectura de caja blanca novedosa que permite optimizaciones de extremo a extremo y de múltiples modelos, introduciendo tuberías con mejoras de rendimiento en diferentes dimensiones21.

Cabe especial mención la herramienta de las auditorías algorítmicas. Según DigitalES, no existe una metodología de auditoría algorítmica. Es un espacio aún incipiente, donde existe una experiencia limitada y señalan que el usuario (médico, por ejemplo) debe haber recibido la formación necesaria e instrucciones claras sobre el nivel de supervisión humana requerido, pero, además, sino existe un sistema de gobernanza de los datos suficientemente robusto y si el usuario no confía en la inteligencia artificial no será de utilidad.

Esta asociación señala que «los algoritmos empleados en el diagnóstico, prevención, seguimiento, predicción, pronóstico, tratamiento o alivio de una enfermedad, lesión o discapacidad están sujetos al nuevo Reglamento Europeo de Productos Sanitarios22, que plantea amplios requerimientos en cuanto a la evaluación clínica del producto, la gestión del riesgo, el sistema de gestión de la calidad, el seguimiento posterior a la implantación, la documentación técnica y la responsabilidad por productos defectuosos.

El proveedor del modelo debe poder evaluar si se están produciendo variaciones significativas en los modelos sin necesidad de validación clínica. Esta supervisión automática debe permitir:

  1. Detectar sesgos sobre las variables sensibles que se determinen para el caso de uso del modelo (por ejemplo: edad, sexo, enfermedades previas, etc.) fijando ventanas de revisión y umbrales de alarmado.
  2. Detectar cambios significativos de población frente a la de entrenamiento que afecten a la precisión».

Por su parte, para el grupo de expertos que crearon las Directrices de ética para inteligencia artificial confiable23, «la inteligencia artificial confiable debe respetar los derechos fundamentales, las regulaciones aplicables y principios fundamentales, asegurando el propósito ético y debe ser técnicamente robusta y confiable».

Llegados a este punto, parece conveniente centrarnos en los requisitos y métodos de la inteligencia artificial confiable que se señalaban en los documentos desde el inicio en su borrador:

  1. Respecto privacidad. La protección de datos y privacidad deben estar garantizadas en todas las etapas del ciclo de vida del sistema inteligencia artificial, esto incluye todos los datos proporcionados por el usuario, pero también toda la información generada sobre el usuario a lo largo de su curso interacciones con el sistema inteligencia artificial. Los registros digitales del comportamiento humano pueden revelar altamente datos sensibles como son los datos de salud. Ahora bien, cabe preguntarse ¿el sistema es compatible con el RGPD? ¿está el flujo de información de datos personales en el sistema bajo control y cumple con las leyes de protección de la privacidad existentes? ¿cómo pueden los usuarios buscar información sobre un consentimiento válido y cómo se puede revocar dicho consentimiento?  ¿se comunica claramente a quién o a qué grupo de cuestiones relacionadas con la violación de la privacidad pueden ser aumentadas, especialmente cuando estas pueden aumentarse por usuarios del sistema de inteligencia artificial u otros afectados por el mismo?
  2. Respecto a la rendición de cuentas. Dependerá de la naturaleza y el peso de la actividad. Puede incluirse mecanismos de compensación monetaria (sin culpa o con culpa) o conciliación sin compensaciones. Por ejemplo, un sistema de inteligencia artificial que malinterpreta un medicamento y decide no reembolsar puede ser compensado monetariamente, sin embargo, si se tratara de una discriminación, serían necesarias explicaciones y disculpas.
  3. Respecto a la gobernanza de datos. La calidad e integridad de los conjuntos de datos utilizados es primordial para el rendimiento del aprendizaje automático capacitado.
  4. Respecto al diseño para todos. Los sistemas deben diseñarse de una manera que permita a todos los ciudadanos utilizar los productos o servicios, independientemente de su edad, estado de discapacidad o estado social. permitiendo así el acceso equitativo y la anticipación activa de potencialmente todas las personas en actividades humanas existentes y emergentes. Este requisito enlaza a la Convención de las Naciones Unidas sobre los derechos de las personas con discapacidad.
  5. Respecto a la gobernanza de autonomía de inteligencia artificial. Cuanto mayor es el grado de autonomía que se otorga a un sistema de inteligencia artificial, más exhaustivas serán las pruebas y el gobierno más estricto. La intervención humana será más o menos temprana en función de ello.
  6. Respecto a la no discriminación. La discriminación se refiere a la variabilidad de los resultados de la inteligencia artificial entre individuos o grupos de personas según la explotación de las diferencias en sus características que pueden considerarse intencional o involuntariamente -como el origen étnico, el género, la orientación sexual o la edad-, lo que puede tener un impacto negativo en tales individuos o grupos. El daño intencional puede excluir a ciertos grupos a través de algoritmos. Por ejemplo, pensemos en las aseguradoras de salud que excluyen a grupos de personas con tendencias a enfermedades. Pero hay que tener en cuenta algo importante: la propia inteligencia artificial puede ayudarnos a identificar el propio sesgo inherente y ayudarnos a tomar las decisiones menos sesgadas.
  7. Respeto a la mejora de la autonomía humana. Cada vez más los productos y servicios de inteligencia artificial se enfocan a personalizaciones extremas y guían a las personas a elecciones potencialmente manipuladoras. Además, los individuos cada vez están más dispuestos a delegar decisiones y acciones a máquinas, pensemos, por ejemplo, en los asistentes personales como Alexa.
  8. Respecto a la robustez. La inteligencia artificial confiable requiere que los algoritmos sean seguros, confiables y lo suficientemente robustos para lidiar con errores o inconsistencias durante la fase de diseño, desarrollo, ejecución, despliegue y uso del sistema inteligencia artificial, y para hacer frente adecuadamente a los resultados erróneos.
  9. Respecto a la seguridad. Consiste en garantizar que el sistema haga lo que se supone que debe hacer, sin dañar a los usuarios, recursos o medio ambiente.
  10. Respecto a la transparencia. Conlleva a la capacidad de describir, inspeccionar y reproducir los mecanismos a través de los cuales los sistemas de inteligencia artificial hacen decisiones y aprenden a adaptarse a sus entornos, así como a la procedencia y dinámica de los datos que se utilizan. Se deben requerir fuentes, procesos de desarrollo y partes interesadas de todos los modelos que utilizan datos o afectan a los seres humanos o puede tener otro impacto moralmente significativo.

El Grupo de expertos señalan los siguientes métodos posibles para conseguir una inteligencia artificial confiable:

  1. Métodos técnicos:
  • Ética y estado de derecho por diseño (X-by-design).
  • Arquitecturas para IA confiable, por ejemplo, por medio del monitoreo continuo.
  • Pruebas y validación.
  • Trazabilidad y auditabilidad. Para abordar los desafíos de la transparencia, los sistemas de IA deben documentar las decisiones que hacen y todo el proceso que dio lugar a las decisiones para tomar decisiones trazables.
  • Explicación XAI. Existe un problema conocido en los sistemas de aprendizaje basados en redes neuronales (“deep learning”) y es la dificultad de proporcionar razones claras para la interpretaciones y decisiones del sistema. A veces pequeños cambios en los valores de los datos pueden derivar a cambios dramáticos y delicados en la interpretación (por ejemplo, personas de raza negra con animales). Existe un amplio campo de investigación abordando esta cuestión.
  1. Métodos no técnicos
  • Regulación24. Hoy existen muchas regulaciones que aumentan la confianza de IA como son la legislación de seguridad o la de responsabilidad civil. Saber que la reparación es posible cuando las cosas van mal aumenta la confianza. Los mecanismos pueden ir desde la compensación monetaria, negligencia o mecanismos de responsabilidad basados en la culpabilidad, la reconciliación, la rectificación y la disculpa sin la necesidad de compensación monetaria.
  • Estandarización. El uso de estándares acordados para el diseño, la fabricación y las prácticas comerciales puede funcionar como un sistema de gestión de calidad para IA a los consumidores, actores y gobiernos. Más allá de los estándares convencionales existen sistemas de acreditación, códigos de ética profesional o estándares de derechos fundamentales. Algunos ejemplos son los estándares ISO.
  • Gobernanza rendición de cuentas. Las organizaciones deben establecer un marco de gobierno interno o externo para garantizar la responsabilidad. Esta puede, por ejemplo, incluir el nombramiento de una persona a cargo de cuestiones de ética en relación con AI, una junta de ética interna, y / o una junta de ética externa. Esto puede ser adicional a, y no puede reemplazar, la supervisión legal; por ejemplo, en forma de DPO o equivalente.
  • Códigos de conducta. Las organizaciones y las partes interesadas pueden suscribirse a las pautas y adaptar sus estatutos corporativos.
  • Diálogo stakeholders. Esto requiere un debate abierto y la participación de los interlocutores sociales, partes interesadas y público en general. Los paneles incluyen diferentes expertos y partes interesadas como expertos legales, técnicos expertos, especialistas en ética, representantes de los clientes y empleados, etc. Se buscará activamente la participación y el diálogo sobre el uso y el impacto de la IA apoyando la evaluación y revisión de los resultados y sus enfoques, incluyendo los casos complejos. Prueba de ello es el grupo de Alianza Europea de IA25.
  • Educación. Aquí se refiere a las personas que fabrican los productos (los diseñadores y desarrolladores), los usuarios (empresas o individuos) y otros grupos afectados.
  • Equipos con diversidad e inclusivos. Esto contribuye a la objetividad y consideración de diferentes perspectivas, necesidades y objetivos. No solo es necesario que los equipos sean diversos en términos de género, cultura, edad, sino también en términos de experiencia profesional y habilidades”.

Por su parte la «Guía de Evaluación de impacto algorítmicas (AIAs)26 será la herramienta idónea a utilizar ya que dada su magnitud y el impacto ético que conlleva esta tecnología, parece necesario abrir el campo de visión y ampliar la intervención por parte de las Administraciones Públicas en su papel de supervisor, evaluador y controlador respecto a los sistemas de inteligencia artificial y de los actores intervinientes que pueden repercutir en los ciudadanos, garantizando el principio de accountability y la due diligence públicos, algo que no sólo debe importar u ocupar a EEUU27 o en Canadá28 sino a todos los países del mundo. Partimos de la base de que, como venimos defendiendo, las organizaciones tecnológicas, desarrolladores e ingenieros «deben abrir sus diseños al control democrático» (Joiito, 2018)29.

De forma específica en la Sanidad, ya estamos encontrando soft law en forma de guías como la que ha creado el gobierno ingles desde la NHS Propone un proceso para las evaluaciones de impacto algorítmicas (AIA)30, cuyo objetivo es garantizar que los usos algorítmicos de los datos del sector público se evalúen y gobiernen para producir beneficios para la sociedad, los gobiernos, los organismos públicos y los desarrolladores de tecnología, así como para las personas representadas en los datos y afectadas por las tecnologías y sus resultados e incluye medidas prácticas para el proceso de AIA, junto con consideraciones más generales para el uso de AIA en otros contextos del sector público y privado. Antes de obtener un nuevo sistema de decisión automatizada, las agencias tendrían que «divulgar públicamente información sobre el propósito, alcance y posible impacto del sistema en las clases de personas legalmente protegidas» (Reisman; Whittaker; Crawford, 2018)31. Por último, a mi humilde modo de ver, también se deberá trabajar con los sistemas de inteligencia artificial teniendo en cuenta ciertos valores. En este sentido, Yudkowsky (2008)32 propone diseñar una inteligencia artificial amigable donde «los valores de tolerancia y respeto por el bienestar de los seres humanos sean incorporados como elementos nucleares en la programación de agentes de inteligencia artificial».

La UNESCO33 diseñó sus propias directrices que fueron aprobadas y sirvieron como primera iniciativa a nivel internacional como herramienta de regulación y ética de la inteligencia artificial sirviendo de marco más allá de Europa. No llegaron a definir las prácticas prohibidas y los sistemas de inteligencia artificial de alto riesgo, pero la «propuesta del Reglamento Europeo en Inteligencia Artificial»34(2021) sí lo consigue, aunque su ámbito de aplicación se limita a Europa, se pueden percibir como una visión extraeuropea estableciendo que los valores europeos de protección de los derechos humanos y fundamentales son centrales para los estados de derecho.

No obstante, existen autores35 que afirman que las directrices éticas del grupo de alto nivel se limitaron a debatir, sin más, sobre la inteligencia artificial “ética” y “robusta”. Según ellos, el concepto de inteligencia artificial legalmente confiable debe basarse en el respeto de tres pilares en los que se basan las sociedades democráticas liberales contemporáneas tales como; los derechos fundamentales, el Estado de Derecho y la Democracia. En concreto, la propuesta del Reglamento europeo de inteligencia artificial debería de garantizar:

  1. una asignación y distribución adecuadas de la responsabilidad por los errores y daños de la inteligencia artificial;
  2. una arquitectura de ejecución legítima y eficaz, que incluya mecanismos adecuados de transparencia para garantizar la protección efectiva de los derechos fundamentales y el Estado de Derecho, y proporcionar una orientación clara y estable a los sujetos jurídicos de manera coherente con otras leyes aplicables;
  3. derechos adecuados de participación pública y derechos de información necesarios para garantizar una rendición de cuentas significativa por el desarrollo, despliegue y supervisión de los sistemas de inteligencia artificial que es necesario en una sociedad democrática (Leads Lab, 2021)36.

Si cabe algún reproche a la propuesta del Reglamento es la falta aplicaciones de la inteligencia artificial en la categoría de «alto riesgo» como aquellas para determinar una prima de un seguro de salud, piénsese en las aseguradoras interactivas), evaluar tratamientos médicos o con fines de investigación37.

En definitiva, la propuesta del Reglamento Europeo de Inteligencia Artificial es un reglamento que fomenta la ética empresarial y que además prevé un sistema de certificación de los dispositivos por parte de los organismos de evaluación donde las empresas deberán establecer un sistema de gestión de calidad que se encuentra a través de los estándares de la ISI que dicta las normas técnicas da las empresas. Por todo ello, se podría decir, que la propuesta del reglamento es un reglamento estándar (Dambly; Beelen, 2022)38.

Otra cuestión llamativa es la escasa referencia que da la Comisión Europea al término “ética” a diferencia de otros documentos comunitarios, pareciendo considerar “ético” lo que no es conforme o no infringe con los valores de la UE y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la UE.

Era obvio que la ausencia de regulación en materia de inteligencia artificial podría haber generado sesgos discriminatorios, el uso de las «cajas negras», pero gracias a esta regulación, Europa podrá poner un marco competitivo a Estados Unidos y a China.

Implicaciones éticas con Internet de las cosas (IoT) y m-Health

Inicialmente convendría utilizar la clasificación de las tres áreas de reflexión ética que ocupa a la IoT que bien señala la autora Colmenarejo (2017) que son:

  1. La ciberética; que se ocupa de analizar los modos en los que internet está condicionando la comunicación social entre individuos y organizaciones, donde se podría incluir la ética de IoT e incluso la ética de la robótica donde se han identificado valores negativos como la vigilancia masiva;
  2. la ética de la computación; que comparte espacios con la ciberética, en tanto que se ocupa de la tecnología que se emplea para la recopilación, gestión y tratamiento de los datos, pero sin ceñirse a internet, es decir, se ocupa de los problemas éticos que surgen en el desarrollo y utilización de herramientas computacionales en todos los ámbitos de la sociedad (Johnson, Miller, 2009; Stahl et al, 2016); y
  3. la ética de la información en investigación biomédica como parte de la bioética que se ocupa de analizar la interacción entre seres vivos y tecnologías digitales y/o computacionales, pero sin ceñirse únicamente a la obtención y gestión de datos obtenidos mediante un acto médico, sino también de los biométricos obtenidos con fines de vigilancia y seguridad (Bietz et al., 2016; Kokumi, 2016; Sharon, 2016; Stylianou, Talias, 2017). Tenemos que asimilar que este tipo de dispositivos IoT van a jugar un papel importante como generadores de datos en el cuidado de la salud en el futuro, tanto a nivel clínico o de investigación como de aseguradoras (Dans, 2018)39.

Así, por ejemplo, Apple Watch40 ya cuenta en la actualidad con un sensor que permite hacer electrocardiogramas y es que, de acuerdo con un informe de la Universidad de California, el Apple Watch es capaz de detectar arritmias cardíacas con una exactitud del 97 %, por lo que se trata de un buen dispositivo para personas que puedan sufrir problemas cardiacos y de hecho, este dispositivo ya ha podido salvar la vida a más de una persona4142. No podemos desconocer los grandes avances que esta tecnología pueden traer a los usuarios en el futuro, ahora bien, sin pretender poner una barrera a la innovación y a los avances tecnológicos -ni mucho menos, tenemos que estar atentos de forma especial a la privacidad y a la protección de datos.

La mayoría de los rastreadores de fitness, por ejemplo, pierden datos personales y no son seguros para la privacidad43.  Una investigación de la Universidad de Toronto ha analizado a Apple Watch, Basis Peak, Fitbit Charge HR, Garmin Vivosmart, Jawbone Up 2, Whitings Pulse O2, Mio F use y Xiaomi Mi Band y ha concluido que 7 de cada 8 (salvo Apple) emiten identificadores únicos persistentes que pueden exponer a los usuarios aun seguimiento a largo plazo sobre su ubicación cuando el dispositivo está conectado a un móvil. A su vez, las aplicaciones Garmin Connect (iPhone y Android) y la aplicación Withings Health Mate (Android) tienen vulnerabilidades de seguridad que permiten a un tercero no autorizado leer, escribir y eliminar datos de usuarios. Las consecuencias éticas no sólo estarán al torno de la “fatiga de hiperconectividad” -que puede suponer estar conectado a estos dispositivos-, sino también al impacto de esta tecnología sobre la privacidad e intimidad de los usuarios. En el 2015, en alguna encuesta44, se mostraba como las aseguradoras (51%) querían asociarse con grandes empresas de tecnología digital y plataformas cloud, quedando evidente la tendencia, la intención de la industria y el mercado de los datos.

Los usuarios que participan aportando datos a las aseguradoras obtienen descuentos premium por alcanzar objetivos de ejercicio. Este escenario provocaba varios interrogantes tales como; ¿las aseguradoras de “seguros de vida interactivos”45  podrán usar los datos para seleccionar a los clientes más rentables mientras que las tasas de interés aumentan para aquellos que no participan?, ¿las aseguradoras pueden crear perfiles de clientes menos rentables?, ¿qué podrían hacer las personas que se le niegan o cancelan un seguro de vida porque los hábitos no están considerados de saludables?, ¿es justo pagar más en la póliza de esas aseguradoras por no querer enviar datos de salud o dejarse monitorizar por dispositivos de IoT de salud?, ¿cómo poner control ético de los datos a la sociedad hiperconectada en la que vivimos?, ¿qué información debe liberarse a la red pública sobre los pacientes?

También se despiertan dilemas éticos en los «hospitales conectados» con IoT debido a las vulnerabilidades de seguridad de los mismos dispositivos sobre todo en los hospitales norteamericanos46, los cuales han aumentado un 125% y cuestan 6.000 millones de dólares al sistema de salud. Por ejemplo, en el 2014 se produjo en EEUU un robo masivo de 4,5 millones de pacientes con datos personales de número de seguridad social, nombres, direcciones, teléfonos y fechas de nacimiento de los pacientes. La intención de los hackers en este caso no era la información personal sino la propiedad intelectual almacenada en los dispositivos. Las consecuencias son la pérdida los HCE (pueden hacer que los médicos realicen tratamientos equivocados poniendo en riesgo la vida de los pacientes), o el acceso de los propios dispositivos (bomba de insulina o respirador), y en otros casos, el objetivo de estos incidentes es el robo de dinero o chantaje. Otra cuestión inquietante la ocupa las vulnerabilidades de los marcapasos ya que según una encuesta de la AERC47, la monitorización remota estará disponible para el 22% de los pacientes usuarios de los mismos. Esta situación empezó a preocupar tanto que, por ejemplo, el que era vicepresidente de EEUU, desactivó la función inalámbrica de su propio marcapasos48. Lo que es claro es que la ética aplicada a la IoT de la salud y a m-Health49 deberá estar orientada a desarrollar una determinada cultura ética de los datos que permite tomar decisiones orientadas hacia el interés general de la sociedad o bien común, en general, y a la privacidad y protección de datos de las personas, en particular.

Implicaciones éticas con Blockchain/DLT

Blockchain es una tecnología emergente que ofrece un valor diferencial a las empresas, aporta trazabilidad, seguridad, eficiencia en tiempo y costes, pero también destila valores éticos cuando describimos sus capacidades a modo de soft skills humanos (Belloto, 2020)50. Desde el punto de vista de la ética de los datos de las personas en un contexto de la proliferación masiva de silos de bases de datos centralizados con información sensible de las personas, las virtudes de blockchain posibilitarán que los titulares de los datos personales tuvieran control sobre sus datos en diferentes formas. Además, proporciona valor en la atención médica al permitir un intercambio seguro y específico de datos para mejorar la calidad y reducir el coste de la atención médica y habilitar nuevos sistemas de comercio e incentivos, por ejemplo, los participantes (entidades de atención médica, pacientes, etc.) que participan en una cadena de bloques pueden ser recompensados por el comportamiento deseado. Desde el punto de las organizaciones privadas (o instituciones públicas), se concibe a este protocolo como una solución de responsabilidad social empresarial (RSE). Blockchain o los sistemas DLT, como protocolo, permiten cumplir ciertas exigencias normativas como la anonimización (medida técnica y organizativa que obliga la normativa) de la información almacenada sensible como es la de la salud. No obstante, no podemos desatender la idea de que blockchain tiene ciertas limitaciones (ej. derecho al olvido, minimización, etc.) y es aquí donde la RSE tendrá un papel muy importante que se traducirá en una contribución activa en la “búsqueda creativa y proactiva” de técnicas y herramientas que posibiliten y den solución -de alguna manera- a las incompatibilidades de este protocolo con la normativa. Estas técnicas pueden suponer todo un desafío para los desarrolladores quienes saben que en esa búsqueda pueden “desvirtuar” la propia tecnología.

Bibliografía

  1. DigitalES. Asociación Española para la Digitalización (2022) Inteligencia Artificial ética en Sanidad. Recomendaciones para la adopción de IA respetuosa, transparente, segura y justa. https://webcache.googleusercontent.com/search?q=cache:Wv-aQNtEQEkJ:https://digitalidades.org/guia-inteligencia-artificial-etica-en-sanidad-de-digitales/+&cd=1&hl=gl&ct=clnk&gl=es [fecha de última consulta:15 de febrero de 2022]
  2. Vid.https://www.forbes.com/sites/enriquedans/2018/09/21/insurance-wearables-and-the-future-of-healthcare/#27449a671782 [fecha de última consulta:15 de febrero de 2022]
  3. Vid.https://datanews.knack.be/ict/nieuws/een-nieuw-jaar-een-nieuwe-ai/article-opinion-1412987.html?cookie_check=1546692144 [fecha de última consulta:15 de febrero de 2022]
  4. Supra. Cit.
  5. Vid. Rabess, Cecilia Esther (2014) Can big data be racist? The Bold Italic, http://www.thebolditalic.com/articles/4502-can-big-data-be-racist [fecha de última consulta:15 de febrero de 2022]
  6.  Vid. Sweeney, Latanya (2013). Discrimination in online ad delivery. Data Privacy Lab http://dataprivacylab.org/projects/onlineads/1071-1.pdf [fecha de última consulta:15 de febrero de 2022]
  7. Vid.https://www.healthcareittoday.com/2019/06/20/fear-and-confusion-over-the-software-and-artificial-intelligence-revolution-reaches-the-fda/ y https://www.regulations.gov/docket?D=FDA-2019-N-1185 [fecha de última consulta:15 de febrero de 2022]
  8. Vid. https://retina.elpais.com/retina/2019/01/04/tendencias/1546604928_551805.amp.html M.Luengo [fecha de última consulta:15 de febrero de 2022]
  9. Monasterio, A.  Ética algorítmica: Implicaciones éticas de una sociedad cada vez más gobernada por algoritmos, 2017.
  10. Vid.https://www.bbc.com/mundo/noticias/2015/07/150702_tecnologia_google_perdon_confundir_afroamericanos_gorilas_lv[fecha de última consulta:15 de febrero de 2022]
  11. Ver https://elpais.com/elpais/2017/09/19/ciencia/1505818015_847097.html [fecha de última consulta:15 de febrero de 2022]
  12. Vid. https://www.xataka.com/privacidad/durante-2018-17-5-millones-ciudadanos-chinos-no-pudieron-comprar-billete-avion-tener-credito-social [fecha de última consulta:15 de febrero de 2022]
  13. Vid. https://amp.infosalus.com/asistencia/noticia-inteligencia-artificial-amenaza-creciente-privacidad-datos-salud-20190104121513.html [fecha de última consulta:15 de febrero de 2022]
  14. Vidr https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2719130 [fecha de última consulta:15 de febrero de 2022]
  15. Ver https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2719121 [fecha de última consulta:15 de febrero de 2022]
  16. AI Now .Report 2018. Recuperado de https://ainowinstitute.org/AI_Now_2018_Report.pdf  pp 7 [fecha de última consulta:15 de febrero de 2022]
  17. Vid. https://www.instagram.com/p/BqfJIQDhLmr/?utm_source=ig_share_sheet&igshid=rbin43g4igsn [fecha de última consulta:15 de febrero de 2022]
  18. Pierson, E., Cutler, D.M., Leskovec, J. et al. An algorithmic approach to reducing unexplained pain disparities in underserved populations. Nat Med 27, 136–140 (2021). https://doi.org/10.1038/s41591-020-01192-7
  19. CNIL (2017). How can humans keep the upper hand? Report on the ethical matters raised by algorithms and artificial intelligence. Recuperado de https://www.cnil.fr/en/how-can-humans-keep-upper-hand-report-ethical-matters-raised-algorithms-and-artificial-intelligence
  20. Lee, Y. et. Al. (2018). PRETZEL: Opening the Black Box of Machine Learning Prediction Serving Systems. aeXiv of Cornell University. Recuperado de https://arxiv.org/abs/1810.06115
  21. Burlacu, A. (12 de agosto de 2018). Understanding a Black-Box. Towards Data Science. Recuperado de https://towardsdatascience.com/understanding-a-black-box-896df6b82c6e [fecha de última consulta:15 de febrero de 2022]
  22. Reglamento (UE) 2017/745 del Parlamento Europeo y del Consejo, de 5 de abril de 2017, sobre los productos sanitarios, por el que se modifican la Directiva 2001/83/CE, el Reglamento (CE) n.° 178/2002 y el Reglamento (CE) n.° 1223/2009 y por el que se derogan las Directivas 90/385/CEE y 93/42/CEE del Consejo (Texto pertinente a efectos del EEE. ) Vid. https://eur-lex.europa.eu/legal-content/ES/ALL/?uri=celex:32017R0745
  23. Comisión Europea. Ethics Guidelines for Trustworthy AI. Recuperado de https://us18.campaign-archive.com/?u=a23897532dbb6100934258190&id=803e0320a1
  24. El grupo de expertos considera que la regulación puede necesitar ser revisada, adaptada o introducida, hechos que serán discutido en el segundo entregable del borrador (marzo 2019) y que contarán con la colaboración de los 900 miembros de Alianza Europea de la IA.
  25. Comisión Europea. The European AI Alliance. Recuperado de https://ec.europa.eu/digital-single-market/en/european-ai-alliance
  26. Reisman, D., Schultz, J., Crawford, K.,  Whittaker M. (abril 2018). Algorithmic Impact Assesments: A practica framework for public Agency Accountability. AINow. Recuperado de https://ainowinstitute.org/aiareport2018.pdf)
  27. Vid. https://www.aclu.org/issues/privacy-technology/surveillance-technologies/algorithms-are-making-government-decisions [fecha de última consulta:15 de febrero de 2022]
  28. Vid. https://citizenlab.ca/wp-content/uploads/2018/09/IHRP-Automated-Systems-Report-Web-V2.pdf [fecha de última consulta:15 de febrero de 2022]
  29. Vid. https://www.aclu.org/issues/privacy-technology/surveillance-technologies/ai-engineers-must-open-their-designs-democratic?redirect=issues/privacy-technology/consumer-privacy/ai-engineers-must-open-their-designs-democratic-control [fecha de última consulta:15 de febrero de 2022]
  30. Ada Lovelace Insitute (2022). Algorithmic impact assessment: user guide https://www.adalovelaceinstitute.org/report/aia-user-guide/  [fecha de última consulta:15 de febrero de 2022]
  31. Vid. https://www.aclu.org/issues/privacy-technology/surveillance-technologies/algorithms-are-making-government-decisions  [fecha de última consulta:15 de febrero de 2022]
  32. Supra Cit.
  33. UNESCO (2021) Informe final sobre el proyecto de recomendación sobre la ética de la inteligencia artificial https://events.unesco.org/event?id=515530304
  34. Propuesta de Reglamento Europeo de Inteligencia Artifiical (2021). Recuperado de  https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:52021PC0206&from=ES
  35. Smuha; Ahmed-Rengers; Harkens; Li; MacLaren; Piselli; Yeung (5 agosto de 2021).How the EU can achieve Trusthworthy AI: A response to the European Commission’s Proposal for an Artificial Intelligence Act. LEADS Lab, University of Birmingham. Recuperado de https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12527-Artificial-intelligence-ethical-and-legal-requirements/F2665480_en
  36. Smuha; Ahmed-Rengers; Harkens; Li; MacLaren; Piselli; Yeung (5 agosto de 2021).How the EU can achieve Trusthworthy AI: A response to the European Commission’s Proposal for an Artificial Intelligence Act. LEADS Lab, University of Birmingham. Recuperado de https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12527-Artificial-intelligence-ethical-and-legal-requirements/F2665480_en
  37. EIOPIA (2021) Artificial intelligence governance principles: towards ethical and trustworthy artificial intelligence in the European insurance sector,
  38. Vid. https://montrealethics.ai/europe-analysis-of-the-proposal-for-an-ai-regulation/ [fecha de última consulta:15 de febrero de 2022]
  39. Vid https://9to5mac.com/2018/06/04/apple-opens-health-records-api-for-developers/ [fecha de última consulta:15 de febrero de 2022]
  40. Vid.https://www.revistagq.com/noticias/tecnologia/articulos/apple-watch-series-4-critica-caracteristicas-opiniones/30946 .  [fecha de última consulta:15 de febrero de 2022]
  41. Vid. https://www.tribuna.com.mx/cienciaytecnologia/Nueva-herramienta-en-el-Apple-Watch-salva-la-vida-de-una-persona-20181209-0083.html [fecha de última consulta:15 de febrero de 2022]
  42. Vid. https://elchapuzasinformatico.com/2018/05/un-apple-watch-salva-la-vida-a-un-hombre-tras-detectar-una-ulcera-perforada/  [fecha de última consulta:15 de febrero de 2022]
  43. Vid. https://dataethics.eu/en/fitnesstrackersleak/ [fecha de última consulta:15 de febrero de 2022]
  44. Vid. https://www.ituser.es/movilidad/2015/05/el-31-de-las-aseguradoras-utiliza-wearables-para-comunicarse-con-clientes-empleados-y-socios [fecha de última consulta:15 de febrero de 2022]
  45. Vid. https://www.reuters.com/article/us-manulife-financi-john-hancock-lifeins/strap-on-the-fitbit-john-hancock-to-sell-only-interactive-life-insurance-idUSKCN1LZ1WL [fecha de última consulta:15 de febrero de 2022]
  46. Vid. http://www.techtimes.com/articles/69953/20150718/ucla-health-data-breach-affects-4-5-million-patients-what-you-should-know.html [fecha de última consulta:15 de febrero de 2022]
  47. Vid. https://www.ncbi.nlm.nih.gov/pubmed/25713012 [fecha de última consulta:15 de febrero de 2022]
  48. Vid.https://www.researchgate.net/publication/275413868_Security_and_Privacy_Issues_in_Implantable_Medical_Devices_A_Comprehensive_Survey [fecha de última consulta:15 de febrero de 2022]
  49. Vid. http://www.intotheminds.com/blog/en/30-days-to-read-privacy-policies-consent-fatigue-will-make-gdpr-ineffective/ [fecha de última consulta:15 de febrero de 2022]
  50. Vid. https://observatorioblockchain.com/blockchain/integracion-de-blockchain-e-inteligencia-artificial-desde-la-perspectiva-de-la-etica/  [fecha de última consulta:15 de febrero de 2022]