SÍNTESIS DE LA SESIÓN DEL 12 DE NOVIEMBRE DE 2020
Descargar en formato PDF | ||
El pasado 12 de noviembre, el comité de expertos del Seminario Permanente La Huella Digital: ¿servidumbre o servicio? celebró su séptima sesión por videoconferencia. Con la sesión anterior se cerró la primera parte del seminario, con el título Cuestiones Éticas en el Tratamiento y Explotación de Datos en Distintos Sectores de Actividad. Con esta sesión, centrada en el debate sobre la libertad y responsabilidad del consumidor en la era digital, se abre la segunda parte, que lleva el título Cuestiones clave de ética digital.
La ponencia inicial de esta sesión y de la segunda parte del seminario corrió a cargo de Victoria Camps, consejera permanente del Consejo de Estado, catedrática emérita de Filosofía y miembro del Consejo Asesor del Seminario. Siguió el comentario de Richard Benjamins, Chief & Data Strategist de Telefónica, que aportó la perspectiva práctica del uso de Big Data en las empresas y su impacto en los consumidores. A continuación, tuvo lugar un amplio debate (lista de participantes en anexo).
Digitalización y libertad del consumidor
La actual era digital tiene una influencia clara en la libertad de los consumidores. Para comprender las consecuencias de dicha influencia, lo primordial es aclarar el concepto de libertad, con el fin de entender su desarrollo en la nueva era. Partiendo de ahí, podremos plantearnos si la digitalización amplía o limita las libertades individuales.
A lo largo de la historia aparecen diversas propuestas del concepto de libertad; dentro de estas es clave la distinción que el pensador ilustrado Benjamin Constant hace un su artículo “De la libertad de los antiguos comparada con la de los modernos” (1819). En su texto clásico, se presenta la libertad de los antiguos como facultad de participación en la vida pública, en contraposición con la libertad de los modernos que se entiende como independencia, sin compromiso con el bien común y como posibilidad de hacer todo aquello que no prohíba la legislación.
Ante el desarrollo de estos dos conceptos, siguiendo a Benjamin Constant, se puede construir una forma de libertad que combine adecuadamente la idea clásica y la moderna. Aunque la concepción moderna suponga un verdadero progreso al ampliar las libertades individuales, no podemos hablar de un progreso para la sociedad en su conjunto si se analiza de forma aislada. El verdadero progreso tampoco está en volver a lo anterior en sentido nostálgico, sino en completar la autonomía y las libertades individuales con una actitud cívica y un compromiso con el bien común.
Al analizar la influencia de la digitalización en el ejercicio de la libertad, Victoria Camps se refiere también a la visión del filósofo contemporáneo Philip Pettit, quien promovió el “republicanismo”, corriente del pensamiento político en la que se entiende la libertad como algo más allá de una facultad individual que solo encuentra su límite en la ley. La libertad republicana se propone como una “libertad sin dominación”, en donde dominación se entiende como la capacidad de interferir arbitrariamente en la libertad del otro. Para Pettit, todos los ciudadanos estamos sometidos en primera instancia a una serie de interferencias legislativas, pero en segunda instancia existen otras interferencias que ejercen su dominio en el individuo sin que éste sea siempre capaz de percibirlas. Ejemplo de estas últimas podrían ser la dominación sobre la mujer a lo largo de los siglos o las dominaciones contra minorías.
Victoria Camps, filósofa y consejera permanente de Estado
Libertad en la digitalización
La idea de la libertad sin dominación puede ser esclarecedora en el análisis de las libertades individuales en la era actual. En el mundo digital, el ciudadano puede creer que ejerce de forma privilegiada su libertad: accede a cantidades ingentes de información y además participa en el diálogo político y social a través de diversas plataformas que hoy en día están a su alcance. Pero, aunque este proceso puede parecer el más libre de la historia, por debajo de lo que se ve puede haber estrategias propagandísticas que los ciudadanos no son capaces de percibir, por la misma naturaleza de las redes.
En este esquema, Nicholas Negroponte proponía la teoría del Daily Me. Según ésta, cada individuo tiene una dieta diaria de información (en diversos tipos de medios) que corresponde a unas líneas editoriales que reafirman sus creencias. Es decir que, aunque creemos que tenemos una visión clara de la situación, nuestros puntos de vista son parciales y no tenemos una comprensión real de las contraposiciones, debido a que los medios digitales, a través de algoritmos, nos ofrecen ver aquello que compatibiliza con nuestros gustos y opiniones. En este sentido, la diversidad que circula por la red no ha servido necesariamente para fomentar el diálogo, sino al contrario, para exacerbar extremismos y polarización. Ejemplo de esto último es el fenómeno que aparece en redes sociales como Facebook o Instagram, en el que los usuarios se convierten en adictos que crean su identidad en busca del reconocimiento de sus seguidores.
Las redes van creando una subjetividad distinta que se determina por su propia arquitectura. Este escenario, que no hemos creado y viene desde fuera, se nos impone en los mensajes. Así, es difícil ser conscientes de hasta qué punto nos está determinando e influyendo, más de lo que somos capaces de averiguar o conocer de forma intuitiva. Todo esto refuerza el argumento, ampliamente estudiado en comunicación, de que el medio es el mensaje: según la conocida idea de Marshall McLuhan, el medio no solo determina el tipo de mensaje que se puede dar, sino que también influye en la forma de actuar y en cómo las personas se entienden entre sí.
La influencia específica del mundo digital en las acciones individuales viene determinada por tres aspectos de la naturaleza de los medios de la red. El primero es el anonimato: las identidades ficticias no tienen ninguna responsabilidad sobre lo que dicen y eso determina en gran medida que se pierda el control en el mensaje. El segundo aspecto es la deslocalización: en el mundo digital no importa en dónde se encuentre el emisor del mensaje. El tercer y último aspecto es la desaparición del saber canónico: con las arquitecturas de la red se elimina la autoridad del experto, ya que no hay un organismo que justifique qué contenidos son de calidad y cuáles no. Estos tres aspectos potencian y determinan el poder de influencia de los medios en la voluntad del individuo.
Publicidad y manipulación
El diseño del mundo digital favorece el poder de influencia del mensaje sobre el consumidor. Es verdad que la información propagandística y las técnicas publicitarias han existido siempre, pero en el universo digital su poder persuasivo crece de forma exponencial. Las plataformas digitales recopilan cantidades ingentes de datos sobre sus usuarios, estos datos se utilizan con fines comerciales y es a través de ellos que se diseñan las estrategias publicitarias. Tal y como se muestra en el reciente documental de Netflix, El dilema de las redes sociales, en el que ex trabajadores de las grandes empresas de Silicon Valley explican cómo las plataformas digitales basan su éxito en el desarrollo de un sistema que busca retener la atención del usuario con fines publicitarios.
Dichas estrategias se elaboran mediante el uso de algoritmos, que, aunque sus desarrolladores defienden que están diseñados para dar al ciudadano lo que quiere (o lo que necesita), la realidad parece ser que se trata no tanto de un servicio al individuo sino de una “tecnología persuasiva”. Es decir que, en esta nueva era, la atención del usuario aparece como moneda de cambio. Entre más tiempo pasen los usuarios en una plataforma, más empresas pagarán por publicidad en ella.
Hacia la Inteligencia Artificial para el bien común
Pero la persuasión, aunque suele ir acompañada de una connotación negativa, no siempre juega en detrimento de la sociedad. La idea de que el consumo es beneficioso para el bien común ha quedado clara con los datos de paro y las pérdidas ocasionadas por los confinamientos de la pandemia Covid-19 que supuso una bajada histórica en la demanda de bienes y servicios. A pesar de que el sistema publicitario actual pueda parecer dudoso en términos éticos, por el uso de datos privados para influir en decisiones que afectan al consumidor, la realidad es que forma parte del sistema económico actual, del que depende el bienestar social. Aquí surge la pregunta: ¿está preparada la economía para el cambio que supondría eliminar las estrategias publicitarias, y en particular que se basan en el uso del Big Data?
El modelo publicitario actual se va adaptando en función de la responsabilidad del consumidor y su actitud frente a la privacidad. Atendiendo a los orígenes del modelo, se pueden identificar tres distintos estadios de los ciudadanos ante el uso de datos en publicidad: en un primer momento, los consumidores desconocían la situación en la que se encontraban, así que los datos se compartían sin ningún reparo. En un segundo momento, que sería el actual, los usuarios se encontrarían negociando sus datos, aquí ha llegado el conocimiento, se sabe que los datos sirven para personalizar la publicidad, pero los usuarios lo aceptan a cambio de fines concretos, como el uso de correo electrónico, el disfrute de entretenimiento o la posibilidad de mantener contacto con los seres queridos a través de las redes sociales. El tercer estadio es el deseado, sería el de la confianza. En este anhelado momento, los usuarios podrían confiar en el buen uso de sus datos personales, que compartirían a cambio de mejorar sus vidas sin preocupación de un mal uso.
Richard Benjamins, Chief & Data Strategist de Telefónica
Los distintos grados éticos del uso de la IA por una empresa se pueden representar en un “continuo ético” del uso de la Inteligencia Artificial (IA), desde el uso de la IA con malas intenciones, hasta su uso para hacer el bien, pasando por los impactos negativos colaterales, los esfuerzos por evitar el impacto negativo y la eliminación de su uso si no puede evitarse el impacto negativo. Dentro de este continuo, la mayoría de las empresas se encuentran típicamente entre los dos extremos. En el extremo de IA para el bien social se encuentran normalmente las organizaciones sin ánimo de lucro y en el extremo del uso mal intencionado, se encuentran las organizaciones criminales y terroristas.
Todos pueden estar de acuerdo en el fin último ideal, el uso de la IA para el bien común; en donde surge el debate es en el camino para llegar a ese final del continuo. La persuasión por medio del uso de datos ha llegado a presentar serios problemas éticos, vulnerando la libertad de las personas en la medida en que desconocían por completo la situación en la que se encontraban. Pero el daño social que supondría la eliminación del sistema económico basado en una publicidad que utiliza el Big Data para “enganchar” a los usuarios de Internet hace que no estemos hablando de un problema fácil, y que quizá se tenga que buscar un término medio. A esto se une el hecho de que, si se suprimiese la cesión de datos como moneda de cambio para obtener ciertos servicios, como puede ser el uso de correo electrónico, mapas de navegación o uso de buscadores de información en línea, y se comenzase a cobrar por esos servicios, gran parte de la población mundial sería incapaz de acceder a ellos. Esto derivaría en un aumento en las desigualdades sociales y en una limitación de oportunidades para formar parte de la economía mundial.
Autonomía y educación como autorregulación
La verdadera autonomía moral significa la facultad de dominio propio a través de normas autoimpuestas, es decir, una autorregulación del individuo. Así, el individuo que, en su pasión por el consumo, cede sus deberes cívicos y derechos fundamentales a las plataformas que utilizan sus datos con fines determinados, es un ciudadano inmaduro en el sentido kantiano. Para Kant, el hombre ilustrado es aquel que se atreve a saber (recordemos la máxima horaciana: sapere aude! – “¡atrévete a saber!”) y con ese conocimiento es como abandona la minoría de edad de la cual es responsable. La tendencia debería ir hacia una madurez social generalizada.
Pero la autonomía moral, en la que el individuo decide por voluntad y no por imposición, nunca se consigue de forma aislada. Para que el ciudadano alcance una madurez moral, es necesaria la educación familiar, la escolar y la de los grandes agentes como los políticos y otras instituciones. Es decir, el sentido amplio de formación que abarca la cultura, los medios y los grandes agentes sociales. Así, no se puede ver el modelo comercial de Internet como el único enemigo y culpable de la vulnerabilidad de la libertad de las sociedades digitales. El uso de grandes datos, orientado -quizá- a la manipulación, no desaparecerá o tardará mucho en hacerlo. De ahí que la respuesta a éste deba ser intrínseca y surgir de la voluntad del ciudadano, y esto se consigue con educación integral.
Sobre la idea de la polarización de la tecnología como el enemigo, se habla en la tercera encíclica del Papa Francisco, Fratelli tutti, que promueve la fraternidad y la amistad social. La idea central, para lo que aquí concierne, es que la tecnología, si no vulnera la dignidad de las personas, no debe tomarse como necesariamente mal intencionada. A lo largo de la historia, las innovaciones han tenido una serie de detractores, tal fue la situación de la imprenta, la electricidad y otros muchos casos. Pero más allá del debate sobre la neutralidad de la técnica, dentro del análisis del impacto de la tecnología en la libertad y responsabilidad del individuo, se ve claro que las consecuencias pueden ser positivas o negativas según sea el caso en el que se utilicen de forma adecuada o inadecuada.
El ejercicio responsable del uso tecnológico afecta, por un lado, a las empresas y, por otro lado, a la persona y a los colectivos de consumidores.
Responsabilidad de empresa
Las denominadas Big Tech (Amazon, Apple, Google, Facebook, Microsoft, Alibaba, Tencent…) juegan un papel determinante en el escenario actual y en el futuro desarrollo del sistema digital, así como los data brokers, cuya operativa afecta más directamente a la privacidad. Estas compañías, que son un número reducido a escala mundial, almacenan los datos de gran parte de la población y los utilizan como su propio producto, con el que negocian con los clientes que quieren publicitarse en ellas o que quieren utilizar esos datos para su operativa. La situación de oligopolio es clara y su influencia en los mercados es objeto de debates políticos, especialmente en Estados Unidos y en Europa. Podría dar lugar en el futuro a nuevas medidas regulatorias específicas, desde nuevos impuestos hasta al desmantelamiento de las empresas y la separación de actividades, la prohibición de recibir pagos “implícitos” de servicios, o la “colectivización” de las comunicaciones como servicio público. Este debate jurídico y político, cuyas claves superan el ámbito de las decisiones nacionales, seguirá desarrollándose. Pero ello no es óbice para que se reflexione también sobre un tema más cercano: el papel de las empresas en general en el uso de datos.
Las empresas, grandes y pequeñas, que son usuarios de datos para su operativa (y compran servicios de las empresas especializadas) tienen que asumir su propia legitimación y obligación de rendir cuentas en el uso de la IA, analizando desde un punto de vista de responsabilidad social qué tipo de datos van a utilizar y con qué objetivos; es decir, dónde se sitúa su operativa en el “continuo ético” del uso de IA. De momento, la regulación en materia de privacidad y uso de datos europea está afectando más duramente a esas empresas, en su calidad de usuarios, que a las Big Tech. La asunción de responsabilidad social corporativa en materia de datos, más que un asunto de regulación abre un campo para el ejercicio del compromiso voluntario y de códigos de conducta, similar al del medio ambiente. Es un aspecto sobre el que el seminario podría intentar llegar a criterios y orientaciones que sean de utilidad para quienes toman decisiones.
Sobre la responsabilidad de mantenerse libres
Volviendo al ámbito individual y colectivo de las personas, es necesario tener presente el hecho de que los ciudadanos son a la vez usuarios y emprendedores de las nuevas tecnologías. De ahí que el dominio propio, a nivel social e individual, aparezca como la principal respuesta al impacto de la digitalización en la libertad personal. La respuesta viene del lado de la responsabilidad social personal, entendida como responsabilidad del individuo consigo mismo de mantenerse libre. Este modelo de responsabilidad social aparece como la verdadera respuesta eficaz a las posibles manipulaciones del consumidor en la era digital, en un momento en el que ni las empresas privadas, ni las leyes son capaces de dar una solución totalmente adecuada y confiable, por más que se tienda a ello.
Cuando el hombre adquiere las normas porque las cree justas, se hace responsable de todo aquello que las normas no le obligan a cumplir, pero que ve importante. Es decir que quizá la tendencia debe ir hacia soluciones híbridas. El cambio radical en el modelo publicitario de Internet ya sea por parte del mundo empresarial o gubernamental, tiene muchos riesgos. Así que la propuesta debe ir hacia profundizar en los aspectos en los que la capacidad de discernimiento ético se debe enriquecer. El ser humano es responsable de sus actos, de ahí que una persona pueda ser moral. Es necesario el buen discernimiento del ciudadano, que conozca las reglas del mundo digital y sepa utilizar la tecnología de forma beneficiosa para sí mismo y para todos.
Listado de asistentes
- Albert Cortina, Abogado, Experto en Transhumanismo Director del Estudio DTUM
- Alfonso Carcasona, Consejero Delegado, AC Camerfirma
- Alfredo Marcos Martínez, Catedrático de Filosofía de la Ciencia, Universidad de Valladolid
- Ángel González Ferrer, Director Ejecutivo Centro Cultura Digital Consejo Pontificio para la cultura del Vaticano
- Carolina Villegas, Investigadora de la Cátedra Iberdrola de Ética Financiera y Empresarial, Universidad Pontificia de Comillas
- Cristina San José, Chief Data Strategist, Banco Santander
- David Roch Dupré, Profesor, Universidad Pontificia Comillas
- Diego Bodas Sagi, Lead Data Scientist – Advanced Analytics, Mapfre España
- Domingo Sugranyes, Director del Seminario de Huella Digital
- Esther de la Torre, Responsible Digital Banking Manager, BBVA
- Francisco Javier López Martín, Ex-Secretario General , CCOO de Madrid
- Gloria Sánchez Soriano, Directora de Asesoría Jurídica de Tecnología, Costes y Transformación de grupo Santander
- Idoia Salazar, Experta en Ética en IA, Universidad CEU San Pablo
- Idoya Zorroza, Profesora Contratada Doctora, Facultad de Filosofía, Universidad Pontificia de Salamanca
- Ignacio Quintanilla Navarro, Filósofo, Educador, Universidad Complutense de Madrid
- Javier Prades, Rector, Universidad Eclesiástica San Dámaso
- Javier Camacho, Director de Sostenibilidad Ética y profesor de ICADE e ICAI
- Jesús Avezuela, Director General de la Fundación Pablo VI
- Jesús Sánchez Camacho, Profesor de la Facultad de Teología, Universidad Pontificia Comillas
- José Luis Calvo, Director de Inteligencia Artificial en SNGULAR
- José Luis Fernández Fernández, Director de la Cátedra Iberdrola de Ética Económica y Empresarial ICADE
- Julio Martínez s,j,, Rector, Universidad Pontificia Comillas
- Pablo García Mexía, Jurista Digital, Of Council Ashurst LLP
- Raúl Flores Martos, Coordinador del equipo de estudios. Área de Comunicación, Cáritas Española
- Raúl González Fabre, Profesor, Universidad Pontificia de Comillas
- Richard Benjamins, Embajador de Data & IA, Telefónica
- Victoria Camps, Consejera Permanente del Consejo de Estado