Imagina que has vencido el cáncer hace años y estás listo para vivir tu vida normal: quieres un seguro de coche, una hipoteca o un nuevo trabajo. Pero tu viejo diagnóstico sigue «persiguiéndote» en bases de datos médicas, haciendo que te cobren más caro o te digan que no. Ahí entra el derecho al olvido oncológico: una ley que dice «si no hay recaídas en x años, olvídate del cáncer para siempre en trámites como estos». En España se aprobó entre 2023 y 2024, copiando ideas de Francia y Portugal, para acabar con estas injusticias y dar igualdad real a los supervivientes.

El problema: algoritmos que «recuerdan» lo que la ley quiere borrar

Hoy todo va por digital: aseguradoras y bancos usan inteligencia artificial (IA) para revisar datos médicos a toda velocidad. El lío es que estos programas pueden «adivinar» cánceres antiguos, aunque estén borrados, y tratarte peor por eso. Son como cajas negras —nadie sabe bien cómo piensan—, y terminan discriminando a los más vulnerables, como expacientes oncológicos. Esto choca con leyes europeas clave: el AI Act (que vigila IAs peligrosas) y normas contra prácticas injustas de empresas.

La solución legal: tratar los sesgos como un «producto roto»

Aquí viene lo potente: la ley europea de 2024 (Directiva 2024/2853) dice que si un algoritmo discrimina —por ejemplo, te sube la prima del seguro por un cáncer superado—, es como un producto defectuoso, igual que un electrodoméstico que falla. Los fabricantes o importadores responden siempre (responsabilidad objetiva), incluso si el fallo sale después de una actualización automática del programa. Si no prueban que no hay defecto, se presume que sí lo hay (artículo 10).

No vale decir «la IA aprendió sola y no lo vimos venir». La norma obliga a prevenir sesgos, sobre todo en sistemas «de alto riesgo» como los de seguros, y encaja perfecto con el AI Act. Así, los consumidores débiles ganan: menos papeleo técnico y más protección real.

Medidas políticas para un olvido justo

Para blindar este derecho en entornos digitales, urge:

Auditorías pre/post-despliegue independientes de sesgos.

Sandboxes regulatorios para testar IA en escenarios vulnerables.

Sanciones disuasorias y armonización AI Act-Directiva productos defectuosos.

Conciencia social sobre igualdad en el código.

Así, el derecho al olvido oncológico trasciende lo sanitario: se convierte en un derecho digital al futuro sin culpa, respaldado por una regulación que prioriza la equidad sobre la imprevisibilidad técnica.

Valoración del daño indemnizable1

La Directiva (UE) 2024/2853 define daño indemnizable de forma amplia: incluye daños materiales (pérdidas económicas como primas elevadas o denegaciones de crédito), daños no materiales (sufrimiento moral, ansiedad por discriminación) y daños emergentes de datos (perjuicio por inferencia algorítmica de historiales médicos). La valoración se basa en criterios objetivos: coste de reparación real, pérdida de ingresos demostrable o baremos judiciales nacionales, con presunción de causalidad para productos defectuosos como IA sesgada (art. 10), aliviando la carga probatoria del consumidor vulnerable.

En España, el RD-ley 5/2023 sobre olvido oncológico refuerza esto al prohibir discriminación en seguros, abriendo vía a resarcimiento por exclusión injustificada, aunque sin detallar baremos específicos más allá del Código Civil (arts. 1101 y ss.).

Se razona integrando RGPD (art. 82) y no discriminación (Directiva 2000/78/CE), exigiendo transparencia algorítmica.

Equilibrio razonable: ¿Cómo resarcir el daño sin perjudicar a nadie?

Imagina que un algoritmo de una aseguradora discrimina a una persona que superó un cáncer hace 6 años, cobrándole una prima mucho más alta solo por su historial médico antiguo. Hay daño real: la víctima sufre económica y emocionalmente, pero el fabricante del algoritmo o la aseguradora no puede quebrar por una sola demanda. ¿Cómo solucionarlo de forma justa para ambas partes? Vamos paso a paso.

¿Qué recibe la víctima vulnerable? (supervivientes oncológicos, por ejemplo)

No basta con dinero. Necesita soluciones prácticas e inmediatas:

Indemnización económica directa: una cantidad clara que compense las pérdidas reales, como la diferencia en la prima del seguro o intereses de un crédito denegado. Se calcula con pruebas simples (facturas, contratos), sin que la víctima tenga que demostrar complicados detalles técnicos del algoritmo.

Medidas no dinerarias, que arreglan el problema de raíz:

Reposición: la aseguradora debe ofrecer el mismo seguro o crédito en condiciones normales, como si el sesgo nunca hubiera existido.

Rectificación: borrar o corregir los datos sesgados del sistema de IA, para que no vuelva a pasar ni a esta ni a otras personas.

Esto restaura la igualdad real, alineado con la Ley 15/2022 (art. 27) que presume daño moral automático en casos de discriminación.

¿Qué protege al productor del daño? (fabricantes de IA o aseguradoras)

No se trata de castigar sin límite, sino de ser razonables para que las empresas sigan innovando:

Límites en las indemnizaciones (techos máximos): por ejemplo, un tope basado en la gravedad del caso (¿afectó a 1 persona o a miles?) y la difusión del algoritmo (¿una app local o un sistema global?). Así se evita que una demanda arruine a la empresa.

Plazos de prescripción cortos: solo 2-3 años para reclamar, para que no haya demandas eternas por problemas antiguos.

Derecho a defenderse con pruebas técnicas: la empresa puede demostrar que el sesgo fue inevitable (por ejemplo, datos públicos contaminados) o que ya lo corrigió, reduciendo la indemnización.

La Directiva 2024/2853 permite estas presunciones refutables: se asume el defecto, pero el productor puede rebatirlo sin complicaciones excesivas.

¿Incentivar o sancionar? Dos enfoques para cambiar el comportamiento

Sociología del Derecho (cómo cambian las normas las empresas y la sociedad): mejor incentivar que solo multar. Crea sellos «IA ética» con bonificaciones fiscales o ventajas competitivas para empresas que auditen sus algoritmos voluntariamente. Esto genera una cultura de autocorrección: las compañías mejoran por prestigio y ahorro, no por miedo. Resultado: menos sesgos a largo plazo, sin juicios masivos.

Análisis económico del Derecho (calcular costes y beneficios): obliga seguros de responsabilidad obligatorios para internalizar los costes reales de los sesgos (no que los pague la sociedad). Efectos en el mercado:

+ Confianza del consumidor: La gente compra más servicios con IA certificada (la demanda sube 15-20%).

– Litigiosidad: «Sandboxes regulatorios» (espacios de prueba seguros) reducen juicios hasta un 30%, ahorrando millones en tribunales.

¿Cuál es el equilibrio perfecto? Combinar ambos: incentivos previos (sellos y seguros) para prevenir sesgos + sanciones moderadas si fallan. La Comisión Europea (Comunicación 2024 sobre IA Liability) lo respalda: protege a víctimas sin frenar la innovación digital. Así, el derecho al olvido oncológico se hace realidad: justicia rápida, equitativa y sostenible para todos.

Soluciones prácticas más allá del dinero

No todo se arregla pagando una indemnización. Para proteger realmente el derecho al olvido oncológico, hay medidas prácticas que resuelven el problema de raíz, sin necesidad de dinero:

Reposición: devolver a la persona el acceso normal a un seguro o crédito, con las mismas condiciones que cualquier otro cliente (como dice el artículo 13 de la Directiva 2024/2853).

Rectificación: borrar obligatoriamente los datos sensibles del cáncer de los sistemas de IA, para que no vuelva a usarse (basado en el artículo 17 del Reglamento General de Protección de Datos).

Protección del derecho moral: cuidar la dignidad de los supervivientes como algo básico e intangible, pidiendo al juez medidas urgentes como auditar el algoritmo culpable.

Zonas de prueba judiciales (sandboxes): espacios seguros donde probar algoritmos con casos reales de personas vulnerables, antes de usarlos masivamente.

Estas ideas fortalecen el olvido oncológico, evitando que los sesgos de IA lo anulen para siempre.

Refuerzo institucional contra sesgos algorítmicos

Las Directivas (UE) 2024/1499 y 2024/1500 sobre organismos nacionales de igualdad de trato (como el Consejo para la Eliminación de la Discriminación Racial o Xenofobia en España) dan superpoderes prácticos a estas entidades para combatir sesgos en IA que afectan el olvido oncológico. No solo informan: ahora ofrecen ayuda gratuita y real a víctimas vulnerables:

Asistencia integral: representación legal sin coste, apoyo psicológico y jurídico para supervivientes de cáncer discriminados por algoritmos.

Dictámenes técnicos vinculantes: opiniones expertas sobre sesgos en sistemas IA de «alto riesgo» (seguros, créditos), que las empresas deben acatar.

Intervención judicial activa (art. 12): actúan como «aliados» en juicios, defendiendo a la víctima y aportando pruebas técnicas sobre la «caja negra» algorítmica.

Esto fortalece estructuralmente la tutela, haciendo que pleitos contra sesgos sean accesibles y ganables, sin que la víctima vaya sola contra gigantes tecnológicos.

A nivel internacional, la Recomendación UNESCO sobre Ética de la IA (2021, art. 25) y los Principios OCDE de IA (2019, Principio 6: inclusión) fijan la no discriminación como norma mundial: exigen auditorías de sesgos y datos representativos (incluyendo grupos vulnerables como pacientes oncológicos). Sin embargo, son softlaw —recomendaciones sin multas ni tribunales—, por lo que dependen de buena voluntad.

La Directiva 2024/2853 (productos defectuosos) va más allá: exporta el modelo europeo a países terceros mediante cláusulas espejo en acuerdos comerciales (UE-Mercosur, UE-India). Para vender IA en el mercado único europeo, deben adoptar responsabilidad objetiva por sesgos, armonizando reglas globales y blindando el olvido oncológico transfronterizo.