SÍNTESIS DE LA SESIÓN DEL 17 DE SEPTIEMBRE DE 2020
Descargar en formato PDF | ||
El pasado 17 de septiembre, el comité de expertos del Seminario Permanente La Huella Digital: ¿servidumbre o servicio? ha celebrado su sexta sesión por videoconferencia. Continuando con el análisis del uso de grandes datos e inteligencia artificial (IA) en distintos sectores de actividad, esta sesión se ha centrado en el diagnóstico y tratamiento de enfermedades y en la gestión epidemiológica. Como telón de fondo está en cuestión la neutralidad de las formas algorítmicas utilizadas, la posibilidad de identificar patrones de comportamiento de las personas, influenciarlos e incluso modificarlos. La idea que subyace es que asistimos a una evolución de la ciencia y la tecnología en la que, más que explicaciones causales, se buscan correlaciones significativas.
La sesión contaba con una ponencia inicial de José Ramón Amor Pan, Coordinador del Observatorio de Bioética de la Fundación Pablo VI, y con comentarios de Alex Sánchez-Vivar, de NHS (National Health Services Scotland), y Cristóbal Belda Iniesta, Subdirector General del Instituto de Salud Carlos III, ambos centrados en la gestión y las consecuencias de la pandemia Covid 19.
Cuestiones de bioética
Al hablar del análisis de datos masivos en el sector de la salud, hay una cosa clara: las herramientas de Big Data pueden traer un beneficio enorme en el diagnóstico, en el tratamiento y en la prevención de enfermedades. En este sentido, no sólo hay muchos hechos y conquistas, sino que se nos anuncia un panorama de promesas verdaderamente alentador: gracias a la IA, los profesionales de la medicina pueden llevar a cabo análisis más precisos y detallados de los complejos datos sanitarios de sus pacientes incluso antes de que estos caigan enfermos, y proporcionarles un tratamiento preventivo personalizado. En el contexto del envejecimiento de la población europea, la IA y la robótica pueden ser herramientas muy valiosas para ayudar a los cuidadores y contribuir al cuidado de las personas mayores, así como para vigilar las condiciones de los pacientes en tiempo real (monitorización). Se habla de interfaces cerebro-ordenador, implantes, exoesqueletos, fármacos personalizados y dirigidos, selección de embriones… y se sueña con superinteligencia, superlongevidad y superbienestar
A la par que los hechos y promesas surgen los problemas éticos que hacen más necesaria que nunca la reflexión bioética. En la ponencia se señalan por lo menos cinco nuevas áreas de problemas bioéticos:
- La selección de los datos que se introducen. El diagnóstico y el tratamiento médicos necesitan tener en cuenta, no sólo datos objetivos, sino también una serie de parámetros subjetivos tales como las sensaciones del paciente o la variabilidad que supone un territorio, un grupo étnico o determinada población. Es decir que, a la hora de construir un algoritmo, es necesario tener en cuenta ciertas subjetividades que pueden influir directamente en los resultados.
- La relación médico-paciente, es decir, el impacto que tiene el uso de tecnologías como la Inteligencia Artificial (IA) y el Big Data en el rol del médico y el nivel de humanización de la asistencia sanitaria.
- El concepto de justicia y todas las repercusiones que el uso de grandes datos tiene en ésta (como el tema de la pobreza).
- El nacionalismo y las cuestiones de geoestrategia que pueden ser determinantes, por ejemplo, en la elaboración, la prueba y la distribución de vacunas.
- La realidad y las ilusiones en torno a la “mejora humana” (human enhancement).
Frente a estos grandes problemas, se parte sin embargo de una convicción: el uso de grandes datos en salud es, esencialmente, un imperativo moral. No sería ético no utilizar el potencial del Big Data y los modelos de IA en medicina. Los beneficios que el uso de estas herramientas puede traer para la salud pública hacen que su aplicación se entienda como un imperativo moral. Pero ante dicho imperativo, y para abordar los problemas bioéticos que se han enunciado, el utilitarismo probablemente no es el único (ni el mejor) paradigma ético. Existe un riesgo de que el mayor bien para el mayor número pueda en ocasiones llevar a los científicos encargados de la toma de decisiones a afectar directamente la integridad del individuo.
Privacidad vs obligación de compartir datos
Si bien la propiedad de los datos no es el único problema desde el punto de vista bioético, sin embargo, esta cuestión concentra la atención del debate: por un lado, se puede defender que los datos de salud no son personales, sino patrimonio de la humanidad. Pero por otro, se puede entender que la obtención y manipulación de datos personales puede atentar directamente contra la privacidad y dignidad de la persona.
La posibilidad de una obligatoriedad, o deber moral, de ceder datos de salud deriva de la necesidad de datos para superar, a nivel social, la mayoría de las enfermedades. Por ejemplo, solo gracias a que se han compartido datos de salud a través de la historia se ha conseguido encontrar cura a enfermedades como la diabetes o la leucemia. En el caso de la vigilancia epidemiológica, los datos son primordiales para que las medidas de las autoridades consigan controlar la pandemia y reducir la mortalidad. Sin datos es imposible detectar brotes, identificar las medidas de control necesarias o evaluar las consecuencias de la pandemia. Para todo esto son necesarios los modelos de vigilancia que, gracias a las tecnologías de tratamiento de datos, permiten actuar con rapidez en tiempos de pandemia. Estos modelos permiten también predecir y alertar sobre la aparición de enfermedades, ayudan a elaborar mapas de incidencia, mediante el uso de IA colaboran en el diagnóstico y tratamiento, además de permitir el rastreo para evitar la propagación.
Covid-19: dramática ausencia de datos clínicos
El uso de las tecnologías de grandes datos en temas de salud pública adquiere un nuevo matiz en el contexto de la pandemia Covid-19. En marzo de 2020, el mundo se paró. En España, el sistema sanitario quedó colapsado en semanas y las unidades de cuidados intensivos quedaron desbordadas. Médicos y equipos de enfermería se enfrentaron a una enfermedad completamente desconocida, no tenían ningún dato, veían entre sus pacientes ciertas similitudes que intentaban conectar, pero no contaban con información clínica, así que no podían diagnosticar ni tratar a los pacientes.
En las primeras semanas de la Covid-19, los sanitarios trabajaban por salvar vidas ante una enfermedad de la cual nadie tenía ni experiencia ni conocimiento. De ahí la urgencia de permitir que la enorme capacidad de predicción de los datos poblacionales pueda explotarse sistemáticamente – como en el programa de “medicina de precisión” que acaba de aprobar el gobierno español para su desarrollo en el Instituto Carlos III – y prolongarse hasta volver al nivel de las personas, hasta tener aplicabilidad individual para mejorar el diagnóstico. Es decir que, partiendo de datos personales anonimizados y globalizados, se busca que las herramientas de Big Data sean capaces de generar utilidad personal para la prevención o el tratamiento de la enfermedad. Desde este punto de vista, emerge un concepto de bien mayor a proteger precisamente cuando se requieren todos los datos disponibles en una catástrofe de salud pública como la actual. En esta línea, paradójicamente, incluso aquel que se rehúse a compartir sus datos personales de salud será atendido, diagnosticado y tratado con la información que brindan los datos de quienes han cedido información.
De lo colectivo a lo individual
Todo esto implica que la gestión estructurada de los datos en salud genera un conocimiento que repercute en la aplicación de mejores tratamientos. El dato sale del individuo para alimentar una información global de población en virtud de la cual se toman decisiones de salud pública, pero al final el centro sigue siendo la persona. En este sentido es preciso salir de un planteamiento moral abstracto y tener en cuenta la realidad de la medicina clínica para defender la utilidad de los datos en medicina: al hablar de un deber de compartir datos de salud, no se está apelando a una ética puramente utilitarista, sino que se entiende ésta como complementaria de una ética de las virtudes.
Las proposiciones del utilitarismo y la ética de las virtudes se pueden ver como complementarias si en el debate ético se plantea no sólo qué principios están en conflicto, sino la utilidad general de compartir los datos y el fin buscado: que el beneficio de la información de los datos se vea en última instancia en el individuo. Es decir que, en el tema de la propiedad y el uso de datos, hay que entrar en el por qué o el para qué. Tratándose de datos de salud, precisamente, el tratamiento algorítmico y la IA permiten volver de lo colectivo a lo individual. En este sentido su uso es compatible con una visión del bien común como las condiciones que permiten a todos participar en algo bueno; en el caso concreto, la explotación de datos de salud, aun siendo de carácter “utilitaria”, puede responder a una visión que busca no olvidar a nadie, ni descartar a nadie.
Las proposiciones éticas en tema de gestión de grandes datos deben tener una aspiración y una tendencia universal. Actualmente los datos que genera un individuo pueden llegar a las manos de empresas de distintas partes del mundo, de ahí que se vea necesario una propuesta de una ética universalizable para valorar la actuación sobre el uso de los datos de cualquier persona en cualquier parte del mundo.
Público y privado
En este campo, como en otros, es necesario abordar también la interacción entre sector público y privado. Muchas empresas privadas cuentan con cantidad de datos de ciudadanos que utilizan para su beneficio y que pueden ser de utilidad para la salud; por ejemplo, Facebook y Google acumulan una enorme cantidad de datos de estilo vida que podrían utilizarse para el beneficio de la salud pública.
La colaboración público-privada se ve como fundamental para los encargados en temas de salud pública, puesto que, en la salud, además del historial clínico, afectan los hábitos de vida, los anhelos, los vicios y virtudes, así como los lugares que se frecuentan, entre otros. Dicha cooperación puede contribuir a tener la imagen completa necesaria para hacer frente a ciertas enfermedades.
Por supuesto, el interés de las empresas es obtener beneficios económicos, pero muchos defienden que se busque un espacio de colaboración siempre y cuando se utilicen las herramientas de Big Data con responsabilidad. En este sentido se defiende la tendencia a la democratización de las herramientas y de los datos para no dejar a nadie al margen. La responsabilidad es la pieza clave en la colaboración público-privado.
El buen hacer depende de la responsabilidad individual y colectiva, tanto pública como privada. Pero esto requiere un seguimiento y una rendición de cuentas ante instituciones adecuadas. Es necesario avanzar en la cooperación multilateral para lo cual hará falta adaptar las instituciones internacionales. En la cuestión política, entendida como la capacidad de unidades más grandes y pequeñas de emprender acciones colectivas, se requiere de la capacidad de acción colectiva en instancias internacionales. Es necesario pensar en cómo se puede reavivar la cooperación para tratar los temas de gestión de grandes datos en salud pública en un marco global, útil y eficaz para todos.
Listado de asistentes:
- Alex Sánchez-Vivar, Epidemiólogo/ Jefe de Equipo– Scottish Health Protection Network (SHPN) Guidance Team, Public Health Scotland
- Alfonso Carcasona, Consejero Delegado, AC Camerfirma
- Alfredo Marcos Martínez, Catedrático de Filosofía de la Ciencia, Universidad de Valladolid
- Ángel Gómez de Agreda, Coronel Jefe, Área de Análisis Geopolítico DICOES/ SEGENPOL
- Ángel González Ferrer, Director Ejecutivo Centro Cultura Digital Consejo Pontificio para la cultura del Vaticano
- Arcadi Navarro, Profesor de Investigación ICREA, Universidad Pompeu Fabra
- Carolina Villegas, Investigadora de la Cátedra Iberdrola de Ética Financiera y Empresarial, Universidad Pontificia de Comillas
- Cristobal Belda Iniesta, Subdirector General del Instituto de Salud Carlos III
- David Roch Dupré, Investigador en Formación, Instituto de Investigación Tecnológica
- Diego Bodas, Lead Data Scientist Mapfre
- Domingo Sugranyes, Director del Seminario de Huella Digital
- Esther de la Torre, Responsible Digital Banking Manager, BBVA
- Francisco Javier López Martín, Ex-Secretario General , CCOO de Madrid
- Gloria Sánchez Soriano, Directora de Asesoría Jurídica de Tecnología, Costes y Transformación de grupo Santander
- Guillermo Monroy Pérez, Profesor, Instituto de Estudios Bursátiles
- Idoia Salazar, Experta en Ética en IA, Universidad CEU San Pablo
- Javier Prades, Rector, Universidad Eclesiástica San Dámaso
- Jesús Avezuela, Director General de la Fundación Pablo VI
- Jesús Sánchez Camacho, Profesor de la Facultad de Teología, Universidad Pontificia Comillas
- José Luis Calvo, Director de Inteligencia Artificial en SNGULAR
- José Manuel González-Páramo, Consejero Ejecutivo, BBVA
- José Ramón Amor, Coordinador del Observatorio de Bioética de la Fundación Pablo VI
- Juan Benavides, Catedrático de comunicación Universidad Complutense de Madrid
- Juan José Laborda, Director de la Cátedra Monarquía Parlamentaria, URJC
- Raúl González Fabre, Profesor, Universidad Pontificia de Comillas
- Richard Benjamins, Embajador de Data & IA, Telefónica
- Victoria Camps, Consejera Permanente del Consejo de Estado