A continuación, reproducimos el artículo académico Implicaciones Éticas de la Aplicación de la Tecnología  en el sector de la Salud Digital. Especial Mención a la Protección de Datos Personales en Big Data, Inteligencia Artificial, Iot y Blockchain, Publicado en la revista Derecho General de Derecho Administrativo https://www.iustel.com/v2/revistas/detalle_revista.asp?id=1 (Edición Mayo 2022, revista indexada en Scopus, Q4).

En este caso, lo publicaremos en 4 apartados y en este número de New Medical Economics le ofrecemos el primero: Ética, moral y derecho en la era digital.

 

¿De qué forma repercute el uso de la tecnología en nosotros? ¿qué diferencia hay entre derecho y ética en nuestros tiempos?

En los últimos años se han recogido grandes cantidades de datos que ahora se encuentran en manos de apenas cinco o diez empresas privadas gigantes con sede en China y en Estados Unidos. La cuestión importante es saber si esos datos se utilizarán “hacia el bien común” para conseguir una sociedad desarrollada y saludable, entre otros objetivos. Las personas no deben percibirse como meras “fuentes de datos” a controlar, manipular y monetizar. La monetización de los datos de las personas no es una opción ética[1]. En estos tiempos en los que vivimos las nuevas e inteligentes tecnologías implican un riesgo interno de dañar a los individuos, segregar a las clases sociales discriminar a personas vulnerables y minorías, favorecer comportamientos poco éticos, etc. Por ello, el «principio de precaución» deberá adoptarse en el desarrollo de tecnología dando por interrumpido el mismo hasta que se encuentre una solución a la incertidumbre. Y es que la mejor forma de luchar contra las violaciones de los derechos de las personas es anticiparse y orientar el desarrollo ético de la innovación tecnológica.

Somos conscientes del advenimiento de los mapeos de datos personales o el surgimiento de los «avatares digitales» de los individuales como representaciones máximas de un «retrato o perfil digital». Como consecuencia de ello, la comunidad académica y los stakeholders[2] implicados en la sociedad, sector público y privado deberían plantearse cuestiones tales como; (i) ¿los individuos tendrán derecho en el futuro a controlar dicha identidad digital? (ii) ¿es correcto moral y éticamente que la sociedad digitalizada condicione a los individuos su participación en la misma en función de unos parámetros (corporales o de estado de salud)? (iii) ¿cómo se podría limitar la extensión de nuestro «yo digital» sobre todo cuando el individuo forma parte de un perfilado de datos personales generado a través de información pública extraída por las redes sociales o plataformas de salud colaborativa? (iv) ¿hasta qué punto y con qué información personal de los individuos se puede generar una imagen confiable y real de cada uno de ellos?

La ley y la ética pueden tener similitudes en sus funciones como «guías» ya que nos indican lo que está bien o mal, lo que es justo o no. La ética es un acuerdo informal ampliamente compartido sobre cómo debemos comportarnos como seres sociales y las leyes son necesarias para definir oficialmente este acuerdo, hacerlo visible y hacerlo cumplir a través de sistemas de sanción donde no se mantienen. Las leyes surgen de una fuente de ética, se podría decir.

Ahora bien, ¿podríamos decir que la ética está relacionada con la moral o con la legalidad?; Y es que cuando los individuos son tratados como simples datos agregados o piezas industriales, y no como personas, la dignidad deja de ser respetada, así lo señalaba Butarelli (2019)[3]. Para el ex supervisor europeo de protección de datos, el RGPD envía un mensaje al mundo y es que los datos personales son parte de la dignidad del ser humano y que, por tanto, debían estar en manos del consumidor/usuario[4].

Y en este sentido, debemos seguir preguntándonos cuestiones tales como ¿sólo es incorrecto aquello que está prohibido por la ley?; ¿la ley es suficiente? ¿basta el mero cumplimiento de la ley para obrar correctamente cuando la tecnología está implícita? ¿dónde estarán los límites morales y éticos de la implantación tecnológica en nuestra sociedad? ¿cómo pueden los individuos -como responsables de sí mismos- controlar la situación? ¿qué parámetros éticos habrá que trasladar a los desarrolladores de tecnología y a las organizaciones empresariales?

Hoy en día, no es únicamente necesario cumplir la ley, y demostrarlo, sino que el debate se traslada a la dimensión más ética, filosófica y moral que pueda existir. Por tanto, nos encontramos con una dimensión de la ética que se desarrolla más allá, en el ámbito de los datos de las personas, su utilización y de los derechos y libertades de éstas.

El supervisor Europeo de Protección de datos (SEPD, 2015)[5], por su parte, ya estableció que los derechos fundamentales a la privacidad y a la protección de los datos personales son más importantes que nunca para la protección de la dignidad humana. El supervisor recordaba que estos derechos están consagrados en los Tratados de la UE y en la Carta de los Derechos Fundamentales de la UE, y los cuales permiten a las personas a desarrollar sus propias personalidades, llevar vidas independientes, innovar y ejercer otros derechos y libertades.

En la actual era digital, el cumplimiento de la ley no es suficiente; tenemos que considerar la «dimensión ética del procesamiento de datos»[6]. De hecho, Naciones Unidas (2015)[7] ya reconoció el «derecho a la encriptación» como un «derecho humano» que no debe ser socavado.

Dicho esto, por tanto, ¿qué diferencias hay entre ética, moral y derecho? Se puede decir que constituyen procedimientos normativos que se articulan de forma separada y regulan la conducta humana. En ocasiones, estos tres se solapan entre sí, por ejemplo, respetar la privacidad digital de las personas se convierte en un deber jurídico y a la vez, ético.

  • La ética consiste en normas de acción y muestras de valores dentro de una comunidad. Se podría decir que la ética es necesaria para llenar los vacíos que producen las consecuencias de los nuevos tratamientos de datos en la era digital.
  • La moral se refiere a las costumbres y convicciones, a lo que está bien y lo que está mal para los individuos que forman la comunidad, y se tratan de principios que, posiblemente, no sean de fácil transmisión. La diferencia del deber ético y el deber legal consiste en que, en el primero, nos enfrentamos a modelos de acción con normas objetivas en una comunidad, y en el segundo, nos referimos no sólo a normas objetivas organizadas, sino que también se expresan en lenguaje formal.
  • El derecho es un conjunto o sistema de normas imperativas y que se ejecutan para articular el comportamiento humano. Los elementos propios de esta rationatis ordinatio son la generalidad, la permanencia, la promulgación formal, y, sobre todo, la imperatividad. Se tratan de normas que son reconocidas por diferentes sectores y comunidades y que, además, pueden ubicarse fácilmente ya que están expresadas formalmente por escrito. Las leyes se perciben a menudo como mecanismos de control impuestos y la ética trata de interiorizar los valores. Se podría decir que el derecho es el mínimo básico para la convivencia de las sociedades (democráticas). Pero la ley no es suficiente, se requiere de algo más al margen de ese mínimo básico para mantener la paz.

Sin duda, el aspecto que los diferencia a los tres, tiene que ver con el carácter coercitivo y con la posibilidad de sancionar ante el incumplimiento de las mismas (vía sanciones civiles, penales y administrativas). En el marco moral y ético no encontramos este elemento coercitivo. El incumplimiento de los principios morales, únicamente, acarrea el remordimiento individual de las personas.

No obstante, no resulta extraño que las normas éticas se conviertan en normas legales. Por ejemplo, no utilizar la información personal de salud con otros fines que no sean los consentidos por el individuo o la obligación de no hacer negocio a costa de los datos de las personas han sido transformados en reglas jurídicas con carácter imperativo. Piénsese en el caso Cambridge Analityca, en la cual Facebook manejó datos de 87 millones de individuos para fines de interés privado que provocó el deterioro de las instituciones cívicas que son esenciales para defender a las sociedades libres y al Estado de Derecho. A este gigante tecnológico le resultará difícil restaurar la imagen de la organización, no mientras continúe con capacidad de causar daños a gran escala. Las tecnologías no pueden ni deben abusar con su posición dominante de discriminar o suprimir derechos en una escala devastadora, como fue el caso sistema de crédito social de China[8].

Si se apuesta por trabajar de forma estrecha con la ética, para completar los vacíos legales en materia de privacidad digital, se deberá fomentar un debate público de la ética digital independiente a los gigantes tecnológicos (e incluso, gobiernos), trabajando por estándares éticos internacionales. La ética digital o tecnológica se basa en el respeto a las personas, a sus derechos y libertades individuales. Y es por ello, que, las organizaciones o gigantes tecnológicos deben rendirnos cuentas a las personas y usuarios, y no al revés.

Este tipo de sucesos hicieron que el legislador europeo se tomara en serio la regulación de los derechos digitales, y en concreto, el derecho fundamental de protección de datos personales en la era digital. Es claro que las organizaciones gigantes están en una guerra continua por tener el mayor conocimiento (en el mundo); ya que conocimiento es poder.

Si bien, es cierto, hablar de conciencia individual no tiene sentido para el caso de organizaciones empresariales, sí que podríamos hablar de responsabilidad social corporativa y posiblemente, normas que se acercan más al derecho que a la ética y a la moral, con responsabilidad específica ante hipotéticos incumplimientos (piénsese, en la adhesión a códigos de conducta con clausulas indemnizatorias).

Contar con derecho, o con normas específicas en materia de protección de datos, como puede ser el propio Reglamento europeo de protección de datos personales, o del Reglamento europeo de Inteligencia artificial[9], o de la Lay de Gobernanza de Datos[10], quizás, no sea suficiente y debamos servirnos necesariamente de la ética digital. Por ejemplo, no basta regular el principio de limitación de las finalidades en los tratamientos de datos personales o las bases legitimadoras si los individuos no entienden claramente el impacto que van a tener sus datos personales de salud en la sociedad (por ejemplo, a la hora de solicitar un seguro de salud, una hipoteca o en un proceso de selección laboral). De hecho, si profundizamos en la utilidad de la base legitimadora del consentimiento del tratamiento, abriríamos un debate respecto a su verdadera eficiencia y a la opacidad, oscuridad y vicio legal que puede contener; ¿es moral y éticamente correcto el consentimiento aceptado tras el convencimiento del marketing general de la empresa y no porque el usuario sepa realmente lo que está haciendo? Como hemos dicho, anteriormente, la ética es necesaria para llenar los vacíos que producen las consecuencias de los nuevos tratamientos de datos en la era digital. Butarelli (2018)[11], ya lo señalaba: «no todo es legalmente compatible y lo técnicamente viable es moralmente sostenible».

Para avanzar en la ética digital es esencial que los reguladores internacionales apliquen las leyes de privacidad vigentes. Sin ética, y sin la aplicación de nuestros valores y reglas los modelos sociales están en riesgo (Falque-Pierrotin)[12].

La ética digital puede entenderse de dos maneras (Floridi, 2018)[13].

  • La «ética dura». Nos referimos a ella cuando discutimos valores, derechos, deberes y responsabilidades, o para referirnos a lo que es moralmente correo o incorrecto. Por ejemplo, la ética dura ayudó a desmantelar el apartheid en Sudáfrica y apoyó que en Islandia se aprobara una legislación en la lucha contra la brecha salarial de género.
  • La «ética suave». Funciona igual, pero lo hace considerando lo que se debe y no se debe hacer teniendo en cuenta la regulación existente, no en contra de ella, o a pesar de su alcance, o para cambiarla, o para eludirla. Este tipo de ética no funcionaría en países donde se ignorasen los derechos humanos como China, Corea del Norte o Rusia. En Europa parece su implantación más propicia para ayudar a las empresas, gobiernos y organizaciones para evaluar y decidir qué papel van a tener en la “infoesfera” cuando la legislación o el derecho no sea suficiente. En Europa, esta ética puede resultar fundamental. Es posible que exista una corriente que piense que la “ética suave” puede llegar a socavar a la “ley dura” ya que ofrece a ciertos agentes de la economía del mercado una alternativa fácil para manipular las disposiciones legales.

La ética digital debe informar las estrategias para el desarrollo y uso de tecnologías digitales desde el principio, cuando cambiar el curso de acción es más fácil y menos costoso en términos de recursos e impacto. En nuestra cotidianidad, la ética está intuitivamente incorporada en cada uno de nosotros, como individuos, desde el desarrollador del software que reflexiona sobre las consecuencias de lo que está desarrollando hasta el usuario, como actor final que elige utilizarlo. Como señala Butarelli, la ética está creada por los hombres y eso no las devalúa, de hecho, puede ser la mayor obra de arte de la humanidad[14].

En definitiva, la ética deberá articularse de forma conjunta con el Derecho a través de propuestas y soluciones, las cuales limitarán los usos poco éticos y contrarios a los derechos fundamentales de las personas, en concreto, irán dirigidas a perseguir la no discriminación y la privacidad, y a empoderar y dar garantías al individuo.

En cualquier caso, hay ciertos elementos que, a mi humilde modo de ver, deben estar presentes en el ámbito de la ética y el impacto de la tecnología de las personas como son:

  • Un régimen de responsabilidad ante los «datos vaporosos» (data fumes, Thatcher, 2014)[15] o ante la «dictadura de datos» (Cukier y Mayer-Schönberger, 2013)[16] como una ingeniería consciente de la privacidad.
  • La defensa del indiscutible «empoderamiento» y la «autogestión de la privacidad» (Solove, 2013) de las personas tendrá un papel imprescindible (teniendo en cuenta que individuo esté inmerso en la cultura de la privacidad y entienda en qué consisten sus derechos fundamentales y cuál es el alcance de los mismos).

Por último, definamos los objetivos de este trabajo que vienen a estar centrados en;

  • en primer lugar, estudiar en qué consiste el «dataísmo», la implicación de la fuente de datos de salud y el papel de los diferentes stakeholders en el marco de la ética de los datos;
  • en segundo lugar, reflexionar sobre el impacto del sector de la salud digital en el derecho fundamental de protección de datos y la privacidad de las personas, deteniéndonos en los casos PatientsLikeMe, Clearview, y Meta (Fb);
  • y en tercer lugar; abordar las implicaciones tecno-éticas de la privacidad en la salud digital, haciendo especial hincapié en la aplicación de tecnologías específicas como son big data, inteligencia artificial, internet de las cosas de la salud y blockchain, proponiendo algunas mínimas  recomendaciones a las organizaciones y al sector público para eliminar los conflictos éticos, tomando como finalidad defender el derecho de protección de datos de las personas que son participantes en el ecosistema de la salud digital, alineándose, como hemos establecido, a la nueva «ética digital» y a la «ética de los datos».

[1] Privacy 2030. A New Vision for Europe. Recuperado de https://archive.epic.org/giovanni_manifesto.pdf

[2] Grundstrom reflexionó en el MyData2018 sobre el ecosistema de datos de salud y señaló que «estamos viendo nuevas formas en las que se están generando datos sobre la atención de la salud y que están aumentando el alcance de las partes interesadas». Esta investigadora señaló que «existe una desconexión entre los grupos de interés y parte de la razón se debe a los silos de datos». [2]Vid. https://docs.google.com/presentation/d/1yq9JLBufrzBIyLW2OvZRDt50TCU5tNoNoHGtyNfqVgs/edit#slide=id.g3fddd1e893_0_143 [fecha de última consulta:15 de febrero de 2022]. Corresponde a la dirección de las organizaciones realizar un análisis individualizado de cada uno de los stakeholders y así conocer las expectativas que pueden tener con respecto a la estrategia de la organización (Colmenarejo, 2017).  Colmenarejo, R. (2017). Una ética para Big Data. Introducción a la gestión ética de datos masivos. Editorial UOC. Parece cierto que este papel es más importante si cabe en las Administraciones Públicas puesto que, ante todo, prima el «interés público» y el de los ciudadanos. Pueden considerarse stakeholders, a mi modo de ver, por ejemplo, la industria farmacéutica, las universidades, las aseguradoras, los centros públicos de investigación médica, las asociaciones de pacientes, los gobiernos, las instituciones públicas, los hospitales, la ciudadanía, los usuarios de wearables, las empresas tecnológicas, los desarrolladores, las ONGs, etc. Por ejemplo, en el futuro, blockchain y sistemas DLT posibilitarán la interacción entre todos ellos con grandes ventajas para todos.

[3] Butarelli, G (2019). Aspectos relacionados con la Ética Digital. [Discurso principal]. XI Foro de la Pricacidad de ISMS Forum, Madrid, España.

[4] Butarelli, G (30 enero-1 febrero 2019). Closing Remarks [Discurso principal].XII Conferencia Internacionald e Computers, Privacy & Data Protection, CPDP 2019, Bruselas, Bélgica. Vid. https://www.youtube.com/watch?v=1O5iM08a3Pw

[5] SEPD (11 de septiembre de 2015) . Opinion 4/2015. Towards a new digital ethics. Data, dignity and technology. Recuperado de https://edps.europa.eu/sites/edp/files/publication/15-09-11_data_ethics_en.pdf

[6]Íbidem.

[7] ONU (2015). Informe del relator especial sobre la promoción y protección del derecho a la libertad de opinión y de expresión. Recuperado de https://s3.amazonaws.com/s3.documentcloud.org/documents/2089684/un-encryption-report-special-rapporteur-on.pdf . [fecha de última consulta:15 de febrero de 2022]

[8] Vid. https://www.elmundo.es/tecnologia/2021/03/27/605e1813fdddff249a8b45a5.html [fecha de última consulta: 27 de abril de 2022]

[9] El Reglamento de Inteligencia Artificial no cubre todas las exigencias que el sector de la salud digital y el inminente desarrollo tecnológico requiere. En este sentido, hubiera sido deseable haber encontrado una categorización dentro de «riesgo alto» a los sistemas de inteligencia artificial de salud (por ejemplo, la designación de la prima de un seguro de salud virtual. Vid. Propuesta del RE (EU) del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial).COM (2021) 206 final. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX%3A52021PC0206

[10] La Ley de Gobernanza de Datos no está siendo del todo aceptado por todas las instituciones, por ejemplo, el Comité Europeo de Protección de Datos señala que la reutilización y el intercambio de datos puede general ciertos riesgos para los interesados incidiendo desde una perspectiva, económica, política y social. Y es por ello, que se deberán aplicar los principios y salvaguardias de protección de datos desde la fase de diseño inicial siendo coherente con el Reglamento General de Protección de datos, evitando que se trate de un marco normativo paralelo concretando si se dirige a datos personales o no personales, etc. Vid. Propuesta de Reglamento (EU) del Parlamento Europeo y del Consejo relativo a la gobernanza europea de datos (Ley de Gobernanza de Datos). COM/2020/767 final. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX%3A52020PC0767

[11] Butarelli, G. (2018). Conferencia Internacional sobre Comisionados de Protección de datos y privacidad.

[12] Falque-Pierrotin, I. (2018). Conferencia Internacional sobre Comisionados de Protección de datos y privacidad.

[13] Floridi, L. Soft Ethics and the Governance of the Digital. Philos. Technol. 31, 1–8 (2018). https://doi.org/10.1007/s13347-018-0303-9

[14] Vid.  https://www.ourworld.co/humanitys-finest-work-of-art/ [fecha de última consulta: 28 de abril de 2022]

[15]  Thatcher, J. (2014): “Living on Fumes: Digital Footprints, Data Fumes, and the Limitations of Spatial Big Data”. International Journal of Communication, 8, 19. http://ijoc.org/index.php/ijoc/article/ view/2174

[16] Mayer-Schönberger, Viktor y Cukier, Kenneth (2013 b): “The Dictatorship of Data”, MIT Technology Review, mayo de 2013 https://www.technologyreview.com/s/514591/the-dictatorship-of-data/ acceso en español en ://www.technologyreview.es/s/3564/la-dictadura-de-los-datos (trad. Francisco Reyes).