En la era de la tecnología y la inteligencia artificial son más importantes que nunca la filosofía, el pensamiento y el humanismo. Un grupo de hasta 30 expertos se han reunido durante dos años para reflexionar sobre los retos éticos de la inteligencia artificial y la tecnología basada en el uso del big data. Recogemos a continuación las conclusiones y recomendaciones para responsables políticos, instituciones educativas, empresas o instituciones.
Un seminario multidisciplinar
El avance de la tecnología ¿es un proceso imparable, alimentado solo por la competencia económica o geopolítica? ¿Es posible un diálogo social y político en torno al desarrollo tecnológico? ¿En qué condiciones? ¿Qué significa la idea de bien común en la época digital? Estas preguntas están en el origen del seminario “Huella digital ¿servidumbre o servicio?” organizado por la Fundación Pablo VI y que se han desarrollado durante dos cursos académicos[1].
En la línea de su espíritu fundacional -la promoción de un liderazgo más humano sobre la base de la doctrina social de la Iglesia, el encuentro con la ciencia y la cultura, y una fe en permanente diálogo con el mundo– la Fundación Pablo VI ha querido abordar las cuestiones éticas relacionadas con la economía digital con un grupo de personas de diversas disciplinas y con distintos enfoques filosóficos y religiosos, abriendo caminos nuevos para la propia elaboración del pensamiento social cristiano.
Para abordar las cuestiones, no en teoría o desde principios abstractos, sino desde el punto de vista de la experiencia real y en un contexto multidisciplinar, se optó por examinar en primer lugar algunas de las actividades reales que se nutren de los repositorios de huellas digitales (big data) que todos vamos creando, conscientemente o no, en cada una de nuestras transacciones en la red: publicidad y marketing, banca y seguros, medios de comunicación, meteorología y control del cambio climático, sanidad y epidemiología. A continuación, abordando aspectos transversales, el seminario debatió sobre la libertad del consumidor ante la “persuasión oculta”, sobre el acceso al mundo digital y los riesgos de marginación por la “brecha” digital, y sobre los modelos de software (algoritmos) que se desarrollan para tratar esta información. En las últimas sesiones también se abordaron algunos temas filosóficos subyacentes: la aproximación a la verdad mediante el tratamiento de grandes datos, las propuestas sorprendentes del transhumanismo y las fronteras del hombre “mejorado” por la tecnología, las preguntas sobre la propia concepción de la persona y del bien común.
Los sistemas de inteligencia artificial (SIA)
Los big data alimentan los sistemas de inteligencia artificial (SIA), es decir unos programas de software informático diseñados para ordenar y clasificar grandes cantidades de datos e inferir, a partir de estas bases estadísticas, unas previsiones sobre el comportamiento de fenómenos naturales o de personas. Los sistemas de inteligencia artificial nacen como ayudas al diagnóstico y a la decisión, y son un elemento esencial para la automatización de funciones o de tareas.
La historia de los SIA se remonta a los primeros ordenadores del siglo pasado, pero su evolución reciente presenta cambios disruptivos: en los últimos cinco años, las llamadas redes neuronales profundas han dado un impulso extraordinario a las técnicas de aprendizaje automático, en las que un SIA se nutre, no sólo de datos brutos, sino también de resultados históricos, dejando que la máquina “descubra” los caminos por los que se alcanzan estos resultados. El algoritmo de estos dispositivos – el conjunto de instrucciones diseñado por el desarrollador – es capaz, a partir de una determinada base estadística, de entrenarse para incrementar la eficiencia del modelo de análisis o de decisión, e incluso para abrir o diseñar nuevos algoritmos.
¿Una inteligencia artificial “fuerte”?
Las perspectivas que, junto con otras tecnologías neurológicas y biológicas, se abren con la pretensión de aumentar o de mejorar el ser humano a partir de estos procesos automatizados, inspiran la tendencia transhumanista que se manifiesta como materializaciones más propias de la ciencia ficción. Es útil debatir sobre las visiones de futuro de una inteligencia artificial fuerte porque, aunque sean planteamientos difíciles de asimilar a día de hoy, su orientación planta la semilla de desarrollos futuros. Es preciso descubrir las bases implícitas en su cosmovisión individualista, que pretende ignorar cualquier riesgo de marcha atrás o de conflicto en los pasos de la humanidad, y lleva en su raíz la voluntad de descartar toda persona o todo grupo que no pueda participar en su marcha triunfal. La reflexión sobre estas perspectivas lleva necesariamente a profundizar, con el lenguaje de hoy, en las preguntas filosóficas más antiguas sobre el hombre: conócete a ti mismo, y atrévete a saber.
El futuro del trabajo
Los procesos de automatización mediante robots, SIA y redes – la llamada cuarta revolución industrial – hacen prever una profunda transformación del trabajo humano, la desaparición de innumerables tareas rutinarias y la posible creación de muchos trabajos de nuevo cuño. Es importante subrayar que la preferencia por procesos que sustituyen el trabajo humano, en lugar de complementarlo, no deriva necesariamente de la evolución tecnológica; es más bien la consecuencia de una cultura tecno-céntrica, de una estructura de incentivos que abarata la inversión en capital frente al coste del trabajo, y de la tendencia a la concentración oligopolística de ciertos sectores, que reduce la capacidad de negociación de los asalariados. La adaptación de las personas, como en anteriores revoluciones industriales, es más lenta que la de la técnica. El tiempo de transición puede ser largo, o no acabarse nunca ante unos cambios tecnológicos cada vez más rápidos. Este proceso conlleva un grave riesgo: parte de la población se puede quedar marginada de forma permanente del mundo del trabajo. Ante esta situación, el diálogo socioeconómico es imprescindible: hay posibilidades de actuar en el sentido del bien común – un horizonte que permita la participación de todos – a pesar de la incertidumbre. Hay un campo para la iniciativa pública, para las instituciones educativas, y para las empresas. El camino va desde la reevaluación de trabajos necesarios y despreciados, hasta la preparación a las personas para situaciones enteramente nuevas, hacia un mundo en el que todos tienen el derecho y la obligación de trabajar.
Cuestiones éticas muy actuales
El debate en torno a estas visiones, algunas de ellas lejanas, ayuda a esclarecer un debate ético cercano, urgente e inmediato sobre fenómenos que ya son realidad y se están dando en situaciones y a escalas muy diversas, cada vez que una empresa o una institución decide realizar una inversión para la explotación publicitaria de big data o para la automatización de un proceso o de una función.
Estas realidades abren inmensas posibilidades de utilización positiva, tanto en aspectos comerciales y de negocio como en el avance científico en campos de clara utilidad pública, o en la gestión de riesgos económicos, de salud o del cambio climático. Sin embargo, su utilización también conlleva dificultades propias y plantea problemas éticos nuevos, por ejemplo, por las situaciones siguientes:
- discriminaciones que pueden derivarse del diseño algorítmico o de unos datos de partida incorrectos o parciales,
- abusos que pueden cometerse al reconstruir sin consentimiento expreso del interesado unos perfiles o rasgos privados a partir de la combinación de varios datos cedidos en otros contextos,
- el intento abusivo de modificar opiniones o comportamientos utilizando resortes inconscientes,
- la desaparición acelerada de determinados puestos de trabajo o la insuficiente preparación e inadaptación de los trabajadores expuestos,
- los conflictos culturales causados por modelos de decisión o de consumo importados,
- la falta de acceso de amplias capas de la población mundial a los servicios digitalizados, lo que puede aumentar el riesgo de desigualdad.
Para desentrañar estas cuestiones de forma inductiva, partiendo de situaciones reales y concretas, el seminario ha recorrido varios ámbitos de actividad en los que los SIA y el uso de big data están transformando la operativa y, a veces, revolucionando todo un sector. El conocimiento de estas aplicaciones, de sus posibilidades y de los problemas que plantean es esencial para fomentar la capacidad de discernimiento crítico en el público, condición esencial de cualquier progreso en la gobernanza de los avances tecnológicos y de gestión.
Hacen falta códigos de conducta reformulados
Las preguntas de carácter moral que se plantean en estas actividades tienen que ver con conceptos básicos de ética social, como el fin de la actividad económica, los límites de la competencia, la libertad ciudadana, la solidaridad y el proyecto de vida en común. En última instancia, las respuestas que se aporten traducen la visión que tenga cada uno, implícita o explícita, de la dignidad humana. Pero, aunque los problemas de fondo sean recurrentes, los códigos tradicionales de deontología profesional no son suficientes para responder a las cuestiones de hoy: los desarrollos tecnológicos actuales obligan a revisar las respuestas tradicionales e incluso los términos del debate, ya que se plantean en un entorno de rapidez y de potencia desconocidos, y las consecuencias, tanto las que supongan progresos como las que produzcan daños, tienen un alcance social y geográfico sin precedente.
Al hablar de empresas, es importante distinguir, por un lado, las big tech cuya actividad principal es la colección y la explotación de datos digitales y, por otro lado, cualquier tipo de empresa que use datos y algoritmos en el desarrollo de sus operaciones y en la automatización de funciones.
El seminario ha querido formular de forma sintética sus recomendaciones en tres capítulos:
1. Para el público en general y, especialmente, para los responsables y líderes políticos, unas ideas sobre los ámbitos y formatos de regulación y las orientaciones a promover para la regulación de los SIA.
2. Para los responsables de decisiones de inversión en empresas e instituciones, los criterios que han de guiar las decisiones de automatización y, en particular, el necesario diálogo entre responsables de las decisiones, por un lado – consejos de administración, gestores, delegados sindicales – y, por otro lado, los responsables técnicos de los software desarrollados o adquiridos. De estos diálogos se derivan los elementos de códigos internos de buen gobierno digital.
3. Para instituciones educativas, empresas e instituciones, los posibles contenidos de programas educativos orientados a promover la cultura de discernimiento crítico en el mundo digital.
* * *
1.- Ámbitos y formatos de regulación (recomendaciones para responsables políticos)
La mayoría de las actividades en las que se utilizan algoritmos en la explotación de datos se desenvuelven bajo una estrecha regulación: banca y seguros, por ejemplo, son sectores muy regulados; la gran distribución, los medios de comunicación, la sanidad, la meteorología y la climatología… son áreas con regulación propia. En algunas coexisten zonas reguladas con zonas más nuevas y aún no reguladas, que precisamente se basan en la utilización de técnicas digitales, como el shadow banking o finanzas no bancarias (frente a la banca tradicional) o las redes sociales (frente a los medios de comunicación formales).
El modo operativo publicitario de las empresas big tech, alimentado por nuestros datos de comportamiento y que persigue influenciarnos como consumidores, se mueve en un ámbito relativamente poco regulado y novedoso, en el que la normativa llega a posteriori, con retraso sobre la evolución tecnológica y gerencial. Las técnicas de vigilancia digital, en particular las de reconocimiento facial y vocal, también se encuentran en un relativo vacío legal.
Cualquier esfuerzo regulatorio deberá tener en cuenta varios factores:
- El objetivo principal a perseguir es la confianza de las personas y de la colectividad en el buen uso de los datos.
- La explotación de big data no conoce fronteras. La localización de las obligaciones legales y fiscales es compleja.
- En los casos de decisiones automáticas delegadas en SIA dotados de autonomía, la atribución de responsabilidad es difícil, tratándose de máquinas o programas de
- La legislación europea en materia de protección de datos es más exigente que la de USA y China, de donde proceden en su mayoría los operadores big tech.
- El uso de los servicios digitales con precio implícito (gratuidad aparente) es útil para asegurar un acceso igual de todos, si bien plantea problemas de transparencia.
- Existe una preocupación creciente por el impacto ecológico del consumo energético de los grandes almacenes de datos y de algunos SIA.
Recomendaciones
1.1 La complejidad y la rapidez de la evolución tecnológica requieren una regulación de principios, más que reglas detalladas.
1.2 La regulación del uso de la huella digital debe ser internacional y democrática. Los principios y la definición de eventuales daños graves deberían estar respaldados en un consenso democrático mundial.
1.3 Debería acordarse internacionalmente una posición claramente contraria al uso de la huella digital para el control político.
1.4 La legislación europea, siendo legítimamente más exigente que la de otros países, especialmente en la protección de datos, debe también tener en cuenta la necesidad de promover la investigación y el desarrollo tecnológicos propios.
1.5 Para mantener el level playing field y evitar los efectos negativos en empresas localizadas en las regiones con regulación exigente, es necesario que se definan sanciones pesadas para los casos en que se documenten daños importantes, y que estas afecten al responsable, cualquiera sea su país de residencia.
1.6 Los principios de regulación deben complementarse a nivel de empresa e instituciones con códigos voluntarios de conducta en materia digital. Su aprobación por los consejos debería ser recomendada, así como la revisión externa de su cumplimiento.
1.7 La regulación no puede pretender controlar el desarrollo del software como tal. Debe incidir esencialmente en la integridad y privacidad de los datos (input), en la finalidad de sus utilizaciones y en la legitimidad de sus resultados (output).
1.8 La regulación debería impedir la combinación de datos de distinto origen y finalidad para deducir rasgos que pertenezcan al área privada y no hayan sido objeto de consentimiento por parte del interesado. Esta limitación se aplica en particular a las técnicas de reconocimiento facial y vocal.
1.9 La regulación debe imponer que todo proceso informático de datos, en cualquiera de sus fases, sea trazable y atribuible a un autor o responsable, como ocurre con las publicaciones que usan medios tradicionales.
1.10 Las empresas dedicadas a la explotación de big data deberían estar obligadas a medir y publicar el impacto ecológico de sus operaciones en materia de consumo energético y su contribución a la descarbonización.
1.11 La utilización de medios digitales en las relaciones de la administración con los ciudadanos debe responder a normas de facilidad y de transparencia para el usuario. La administración debe estar obligada a favorecer el acceso de todos sin excepción a los procedimientos digitales, de modo que la dificultad de uso no pueda ser obstáculo al acceso por parte del ciudadano.
1.12 Es legítimo continuar el debate sobre la posibilidad de colectivizar el uso de determinadas partes del tráfico digital, como se ha hecho con otros medios de comunicación y de transporte de interés general, o sobre la disgregación de grandes empresas tecnológicas en varias entidades para preservar la libre competencia.
1.13 La normativa debería evolucionar en un sentido que tienda a restablecer el equilibrio entre el coste del trabajo y el coste del capital, eliminando incentivos que aceleran artificialmente la sustitución de personas por sistemas automáticos (por ejemplo, modificando las normas que favorecen el endeudamiento). Para ello es necesario un diálogo fuerte entre interlocutores sociales, sindicatos y empresarios, y unas soluciones que no impliquen, por ejemplo, una menor competencia europea frente a otros actores.
1.14 Corresponde al sector público impulsar el desarrollo tecnológico hacia procesos complementarios y potenciadores del trabajo humano, mediante ayudas a la investigación y mediante la orientación de las compras públicas.
1.15 Se debería estudiar la posibilidad de políticas aplicadas localmente, con ayuda estatal y supranacional, para facilitar a todos el acceso a un trabajo digno y correctamente remunerado.
1.16 Es necesario reforzar las capacidades de las administraciones públicas para desarrollar las funciones y objetivos propuestos.
2.- Criterios para decisiones de automatización (recomendaciones para responsables de inversión en empresas e instituciones)
En las empresas, las inversiones en procesos automatizados se toman en función de estudios de rentabilidad y de competencia. En las instituciones, estas decisiones responden a criterios de coste y de eficacia en la obtención del resultado esperado. Las decisiones se pueden ver influenciadas por consideraciones fiscales (incentivos varios, distintos tratamientos de la inversión) y por previsiones sobre las dificultades que pueden afectar a la contratación de trabajadores y al coste de materias primas.
Sin embargo, además de estas consideraciones indispensables, al igual que en otras inversiones de automatización o uso de robots industriales, es necesario que quienes deciden sobre aplicaciones de big data también se pregunten específicamente sobre la naturaleza de la aplicación tecnológica y sus consecuencias: ¿Qué resuelve? ¿Cómo? ¿Quién opera la nueva tecnología? ¿Qué beneficios y qué daños puede generar, y a quién? Toda decisión de inversión debe incorporar consideraciones de impacto – positivo o negativo – de carácter social y de sostenibilidad respecto de todos los stakeholders y de la sociedad en general, especialmente en lo que se refiere al impacto ambiental y en el empleo, y en proporción a la importancia de la inversión.
Las decisiones de automatización conllevan una dificultad específica, que no siempre existe en otros campos: el riesgo de incomprensión en el diálogo entre expertos técnicos encargados del desarrollo informático o de la adquisición de software y datos de terceros, por un lado, y los responsables de la estrategia empresarial general: las innovaciones tecnológicas generan su propia dinámica, y no siempre existe un lenguaje común entre ambos grupos.
Recomendaciones
2.1 Las decisiones de inversión en automatización deberían ser objeto de un diálogo multidisciplinar dentro de cada empresa, en el que participen los responsables jerárquicos y los técnicos informáticos, con información y consultación de las partes en el diálogo social interno.
2.2 Además de los estudios económicos y financieros habituales, se debería estudiar en cada caso el efecto de la inversión en el empleo de personas, las nuevas necesidades de capacitación y, en su caso, la recolocación de las personas sustituidas.
2.3 Toda inversión en automatización debe comportar un estudio de impacto ambiental y energético, incluyéndose las externalidades ambientales en los criterios de decisión, aun cuando no tengan todavía traducción contable.
2.4 Es útil preguntarse: ¿A quién beneficia la automatización? ¿A quién daña? ¿Aumenta la agilidad del servicio prestado? ¿Disminuye, o agrava situaciones concretas de desigualdad? ¿Ayuda a prevenir riesgos?
2.5 Se debería reunir garantías sobre la integridad de los datos que se utilicen para nutrir el algoritmo, de manera que no contengan discriminaciones implícitas o explícitas, o selecciones que no guarden relación con el objeto buscado, o exclusiones ilegítimas.
2.6 La automatización, como ayuda a la decisión, debería tender a mejorar la objetividad del proceso, evitando posibles errores subjetivos típicos de los procesos manuales.
2.7 Los responsables deben preocuparse por reducir los falsos positivos y falsos negativos que se dan en las decisiones apoyadas en procesos automáticos, corrigiendo en lo que sea necesario la utilización de datos y el algoritmo.
2.8 El modelo de software utilizado en cada caso debe ser objeto de análisis previo y a posteriori. Debe constar siempre un autor y una línea de responsabilidad que se pueda reconstituir en caso de reclamación.
2.9 Los resultados del proceso automatizado deben ser objeto de un examen crítico en cuanto a su razonabilidad, en comparación con la experiencia anterior y en función del fin buscado. El examen debe ser permanente.
2.10 Es necesario valorar con especial cuidado los procesos de decisión autónomos que afecten directamente a personas, ya sea como pacientes, como usuarios, clientes o participantes en el proceso. En estos casos es exigible la trazabilidad de las decisiones en función de criterios fijados por decisión humana previa o posterior.
2.11 Es necesario examinar el proceso automatizado en función de las costumbres locales de cada país o región, de tal forma que los criterios aplicados en su diseño respondan a las expectativas legítimas de quienes serán sus usuarios.
2.12 La delegación de funciones al proceso automático debería ser objeto de una decisión formal y auditable por terceros.
2.13 La utilización de técnicas de vigilancia (reconocimiento facial o vocal, por ejemplo) debe estar sometida a un estricto control y protección de privacidad, prohibiéndose la combinación de datos no consentidos por el usuario.
2.14 Los procesos automatizados deben ser objeto de validación y, en la medida de lo posible, de controles de calidad reconocidos por el sector de actividad.
2.15 En todas las fases del proceso de automatización es necesario el diálogo entre la dirección corporativa o institucional y los expertos informáticos (data scientists) de forma que las cuestiones sobre finalidades, evitación de sesgos en datos y validación de resultados sean entendidas y traducidas en un lenguaje comprensible para todas las partes.
2.16 Las empresas e instituciones deben poder proteger su responsabilidad en el uso y la explotación de big data contra el riesgo de eventuales reclamaciones por daños y perjuicios, que podría llegar a poner en peligro su continuidad. Para ello se deben estudiar las posibilidades de cobertura en el mercado asegurador o mediante arreglos institucionales ad hoc.
3.- Ideas para la formación de capacidad crítica de discernimiento digital (recomendaciones para instituciones educativas, empresas e instituciones)
La conclusión más frecuente en los debates sobre la huella digital es la necesidad de formación de los criterios personales y de grupo – familiar, profesional, asociativo – que permita un discernimiento crítico de cada individuo y de cada grupo ante la capacidad persuasiva de la publicidad digital y frente a la ideología determinista del “mejoramiento” y del “transhumanismo”.
Actualizar el concepto de libertad supone aunar las libertades individuales – la capacidad de hacer todo lo que no prohíba la ley – con la libertad entendida en el sentido clásico: la capacidad de participar en la vida pública. El verdadero progreso está en completar la autonomía y las libertades individuales con una actitud cívica y un compromiso con el bien común, entendido como un horizonte evolutivo que permite la participación de todos. Para ello es necesario, también, que individuos y grupos aprendan a liberarse de interferencias y dominios no siempre percibidos conscientemente, como la dominación ejercida sobre minorías, o sobre el conjunto de los ciudadanos por parte de gobiernos dictatoriales, o la que pueda ejercer una persuasión comercial oculta.
Detrás de estos debates están los términos de lo que consideramos como propiamente humano. La tecnología no es un instrumento exterior al ser humano; desde la época prehistórica, la técnica viene modificando la operación moral de la humanidad introduciendo nuevas formas de organización social, alterando los modos de decisión, e incluso cambiando al mismo sujeto con mejoras de su capacidad. Las posibilidades concretas de modificaciones del ser humano mediante ingeniería electrónica o biológica plantean cuestiones urgentes sobre los límites en los fines perseguidos y los medios aplicados. Este debate abre nuevos caminos necesarios a la reflexión filosófica, no tanto sobre el contexto y el espacio en el que nos movemos, sino sobre nuestra realidad propia y nuestra dimensión interior.
La realidad digital obliga a una gran renovación educativa en la que deben participar, no sólo las instituciones especializadas – colegios, institutos, universidades, escuelas de formación profesional – sino también las empresas y las instituciones cuya actividad se ve afectada y, en muchos casos, transformada por la digitalización.
Los planes formativos deben actualizarse para preparar directamente a las personas al pleno dominio de los medios digitales, como usuarios participativos, al mismo tiempo que transmiten las capacidades generalistas y humanistas necesarias para “gestionar la abundancia”, para reflexionar sobre uno mismo y sobre los fines de la actividad.
El esfuerzo educacional y formativo se tendrá que diseñar para distintos colectivos y distintos niveles. Especialmente requieren esta formación complementaria los ingenieros informáticos y directivos de empresas, que necesitan tener un lenguaje común para gobernar la automatización; los líderes de opinión; los usuarios de todos los niveles y edades; los grupos desfavorecidos con acceso limitado a los medios digitales; las personas que se vean marginadas de forma duradera del mundo del trabajo.
Los planes formativos se tendrán que realizar con alcance masivo, pero manteniendo a la vez una extrema atención a culturas y peculiaridades de cada sociedad, de forma que pueda realizarse el necesario proceso que lleva incluso a los más pobres, desde el acceso a las redes, pasando por el aprendizaje digital, la integración de las tecnologías en distintos modos de vida y a la posibilidad para todos de ejercer la propia creatividad con los instrumentos del mundo actual. Para ello es necesario identificar las “brechas” digitales, geográficas, de edad o de grupos, y corregir la actual tendencia a una mayor desigualdad digital.
Recomendaciones
3.1 Es necesario en todos los niveles un diálogo multidisciplinar para diseñar programas formativos de maduración digital en la línea de la responsabilización, según el lema clásico: sapere aude!, ¡atrévete a saber!
3.2 Los centros de pensamiento deben dedicarse a desarrollar un enfoque propositivo – y no sólo reactivo – sobre un humanismo que incorpore el lenguaje tecnológico actual y sus posibilidades, renovando otro lema clásico: gnothi seauton! ¡Conócete a ti mismo! con un enfoque general: las nuevas tecnologías deben respetar la dignidad de las personas y ponerse a su servicio.
3.3 La preocupación por la formación del discernimiento digital es una necesidad transversal de todas las actividades educativas. Todas, cualquiera sea su orientación profesional, deben preparar al cambio y fomentar los conocimientos técnicos y matemáticos elementales necesarios para el dominio de los medios digitales.
3.4 Los programas educativos deben enseñar sistemáticamente a discernir y a identificar los contenidos invadidos por la emotividad. Para ello es necesario incluir en todos ellos una formación a la reflexión filosófica y humanista de base.
3.5 La educación debe preparar a todo individuo para el control de sus propios datos, para el entendimiento de los consentimientos requeridos y para su “empoderamiento” frente a la generación de predicciones y de perfiles de consumo prefabricados.
3.6 Los programas educativos deben entrenar para distinguir la calidad profesional en los medios informativos.
3.7 Se debe enseñar lo esencial sobre la calidad e integridad requeridas en los datos que sustenten las recomendaciones de comportamiento, por ejemplo, en la cuestión ambiental.
3.8 La educación debe difundir una cultura de responsabilidad, en la que cada individuo es el encargado de mantenerse libre.
3.9 La educación debe ayudar a criticar el “sesgo de automatización”, la preferencia apriorística por los procesos automáticos o de máquinas.
3.10 La alfabetización digital debería ser un objetivo primordial y universal de las políticas educativas en cualquier país o situación.
3.11 La formación de responsables informáticos y gerenciales debe incluir su confrontación con una orientación filosófica a la fraternidad y la solidaridad, y la crítica del utilitarismo determinista que inspira las teorías del “transhumanismo”. Las universidades deben considerar esta formación humana como parte esencial de sus programas.
Lista de integrantes del Consejo Director
- Domingo Sugranyes. Director del Seminario “Huella Digital: ¿servidumbre o servicio?”
- Jesús Avezuela. Director General de la Fundación Pablo VI
- Victoria Camps. Consejera Permanente del Consejo de Estado
- José Manuel González-Páramo. Consejero Ejecutivo, BBVA
- José Manuel Inchausti. Vicepresidente, Mapfre
- Juan José Laborda. Director de la Cátedra Monarquía Parlamentaria, URJC
- Julio Martínez s.j. Rector, Universidad Pontificia Comillas
- Cristina San José. Chief Data Strategist, Banco Santander
- Paul Tighe. Secretario Consejo Pontificio de la Cultura
Lista de integrantes del Comité de Expertos
- Alex Rayón Jeréz (**). Vicerrector for International Relations and Digital Transformation, Universidad de Deusto
- Agustín Delgado Martín. Director de Innovación, Sostenibilidad y Calidad, Grupo Iberdrola
- Albert Cortina Ramos. Abogado y urbanista. Experto en Transhumanismo Director del Estudio DTUM
- Alfonso Carcasona. Consejero Delegado, AC Camerfirma
- Alfredo Marcos Martínez. Catedrático de Filosofía de la Ciencia, Universidad de Valladolid
- Alfredo Pastor Bodmer. Economista, Profesor emérito, IESE
- Almudena Rodríguez Beloso. Directora de Relaciones Institucionales y Corporativas, VALORA
- Ángel Gómez de Agreda. Analista geopolítico y divulgador
- Ángel González Ferrer. Director Ejecutivo Centro Cultura Digital Consejo Pontificio para la cultura del Vaticano
- Arcadi Navarro. Profesor de Investigación ICREA, Universidad Pompeu Fabra
- Carlos Losada Marrodán. Profesor titular, Dpto, de Dirección General y Estrategia ESADE
- David Roch Dupré. Profesor de la Universidad Pontificia Comillas
- Diego Bodas Sagi (**). Lead Data Scientist – Advanced Analytics, Mapfre España
- Esther de la Torre. Responsible Digital Banking Manager, BBVA
- Francisco Javier López Martín, Ex-Secretario General , CCOO de Madrid
- Gloria Sánchez Soriano. Directora de Asesoría Jurídica de Tecnología, Costes y Transformación de grupo Santander
- Guillermo Monroy Pérez. Profesor, Instituto de Estudios Bursátiles
- Higinio Marín Pedreño (*). Profesor Titular de Antropología Filosófica de la Universidad CEU Cardenal Herrera en Valencia
- Idoia Salazar. Experta en Ética en IA, Universidad CEU San Pablo
- Idoya Zorroza. Profesora Contratada Doctora, Facultad de Filosofía, Universidad Pontificia de Salamanca
- Ignacio Quintanilla Navarro. Filósofo, Educador, Universidad Complutense de Madrid
- Javier Camacho Ibáñez (**). Director de Sostenibilidad Ética y profesor de ICADE e ICAI
- Javier Prades. Rector, Universidad Eclesiástica San Dámaso
- Jesús Sánchez Camacho. Profesor de la Facultad de Teología, Universidad Pontificia Comillas
- José Luis Calvo. Director de Inteligencia Artificial en SNGULAR
- José Luis Fernández Fernández. Director de la Cátedra Iberdrola de Ética Económica y Empresarial ICADE
- José Manuel Caamaño. Bioética, director de la Cátedra de Ciencia, Tecnología y Religión ICAI
- José María Viñals. Socio, Squire Patton Boggs
- José Ramón Amor. Coordinador del Observatorio de Bioética de la Fundación Pablo VI
- Juan Benavides. Catedrático de comunicación Universidad Complutense de Madrid
- Pablo García Mexía. Jurista Digital, Of Council Ashurst LLP
- Raúl González Fabre. Profesor, Universidad Pontificia de Comillas
- Samuel Privara (*), experto en el área de cibernética, robótica e inteligencia artificial
- Sara Lumbreras. Subdirectora de resultados de investigación, Profesora titular, Instituto de Investigación Tecnológica , ICAI, Universidad Pontificia Comillas
- Richard Benjamins. Embajador de Data & IA, Telefónica
(*) Miembro del Comité de Expertos en la primera fase del Seminario (2019/2020)
(**) Miembro del Comité de Expertos en la segunda fase del Seminario (2020/2021)
[1] En concreto, desde noviembre 2019 a junio 2021, el comité de expertos del seminario multidisciplinar “Huella digital ¿servidumbre o servicio?” se ha reunido en doce ocasiones (a partir de marzo 2020 en sesiones telemáticas). Los resúmenes y listas de participantes se encuentran en la web . Se prevé una publicación completa y una serie de emisiones en podcast para una amplia difusión.