SÍNTESIS DE LA SESIÓN DEL 16 DE ENERO DE 2020
Descargar en formato PDF | ||
Fotografías disponibles (Flickr) | ||
El grupo interdisciplinar del Seminario Permanente Huella Digital: ¿servidumbre o servicio? ha celebrado el 16 de enero de 2020 una de las sesiones de trabajo programadas sobre aspectos concretos del uso y aprovechamiento de la huella digital. En esta ocasión se ha abordado el modelo empresarial del uso publicitario de big data. El seminario, que se extenderá hasta junio de 2021, se propone profundizar poco a poco, mediante el diálogo, en los efectos de la explotación de datos en el desarrollo tecnológico en su relación con el bien común y la gobernanza.
Esta sesión ha sido introducida por Cristina San José, Chief Data Strategist del Grupo Santander y miembro del Consejo Director del Seminario y Josep Salvatella, CEO y Socio de RocaSalvatella, consultora de negocio digital. Una vez impartidas las ponencias, los asistentes, entre los cuales intervienen operadores industriales y financieros, altos funcionarios, economistas, sociólogos y filósofos, plantearon dudas, comentarios y reflexiones que se resumen en este documento. La lista de participantes en la reunión se incluye al final.
La neutralidad de la herramienta, ¿qué es y cómo funciona un algoritmo?
Para iniciar la sesión se realizó un ejercicio con los asistentes con el fin de ilustrar el funcionamiento de un algoritmo que permite analizar y distribuir datos en función de determinados criterios, de una manera mucho más realista que la ‘ilusión de conocimiento’ a la que nos ha acostumbrado el uso de las distribuciones estadísticas gaussianas tradicionales. La actividad consistía en que cada participante, de forma mental, hiciese un algoritmo siguiendo unas pautas que se explicaban al momento. El ejercicio desembocó en el debate acerca de la intencionalidad de las herramientas de tratamiento de big data.
El ejemplo pretendía mostrar que el modelo de análisis y tratamiento de datos no es una fórmula, sino una geometría. El análisis de datos, primer paso hacia la Inteligencia Artificial (IA), funciona mediante el análisis de la extensión, la medida y las relaciones entre los objetos que estudia. En este sentido, no se puede decir que el algoritmo sea algo sesgado o algo objetivo; es una herramienta neutral que depende, en su intencionalidad, de aquel que la utiliza. Desde este punto de vista, el tratamiento de grandes datos es ante todo una tecnología de precisión, que según quien la oriente (ciudadano/cliente, empresa o gobierno) puede convenir a todos o afectar negativamente a unos y beneficiar a otros.
En esta misma línea, se puede afirmar que la IA no es realmente “inteligente”, puesto que una máquina no es capaz de comprender lo que hace. Aunque las máquinas realicen cosas que los seres inteligentes hacen de forma natural, tales como reconocer objetos, escribir, traducir o incluso crear (pinturas o música), no se puede defender que sean realmente inteligentes. Lo que los ordenadores hacen es calcular, sumar y multiplicar; estos procesos se automatizan y de ahí surgen modelos predictivos. Será siempre el ser humano quien deberá dirigir esos modelos según su conveniencia.
Sin embargo, varios participantes ponen en duda esa naturaleza neutral de las herramientas de big data: para que un algoritmo funcione, es necesario que existan unas hipótesis que previamente definen qué datos van a ser relevantes para hacer la predicción. El algoritmo es un instrumento, pero nunca se encuentra aislado, sino que tiene una estructura que siempre está hecha con un fin. Existen muchos ejemplos de algoritmos que en su propia definición conllevan posibles manipulaciones. El instrumento permite analizar “la verdad” pero esa imagen, basada siempre en alternativas en blanco y negro, utilísima para predecir situaciones que se puedan reducir a un ‘sí’ o ‘no’, no sirve en cambio cuando se trata de analizar otras realidades que son casi siempre variaciones de grises. Además, la difusión de los instrumentos de análisis depende en gran parte del poder de cuasi monopolio de algunas grandes empresas de Estados Unidos y China, que dominan su elaboración, tanto para su propio uso como para uso por terceros. En el desarrollo de esta tecnología, la creación de productos viene siempre con una carga de uso anterior. El debate sobre la neutralidad de la herramienta aparecerá nuevamente en otras cuestiones respecto al uso de big data.
Regulación y Educación
La revolución de los datos es algo que está sólo empezando. Se trata de un fenómeno que a pesar de que aún no es del todo comprendido, crece hacia dimensiones siempre más masivas; no es algo estático, sino que crece exponencialmente. Las interacciones entre datos, personas, máquinas e IA acaban de empezar, de ahí que sea clave entender cuanto antes si existen aspectos nocivos de estas combinaciones y cómo es posible corregirlos.
Este fenómeno plantea el problema del uso de datos personales del ciudadano por parte de terceros. Cualquiera sea la posición respecto de la propiedad de los datos (del Estado, de quien los recoge o de quien los cede), hay dos posibles caminos para encauzar los conflictos de interés: por un lado, la legislación, como posible reguladora de la utilización de las herramientas de big data; por otro lado, pero no en contraposición, la educación. En este último sentido se pone de manifiesto el desconocimiento de los ciudadanos respecto a la generación de datos y respecto al uso real y potencial que hacen con los datos aquellos que los almacenan.
Respecto a la legislación, parece claro que es necesaria una regulación que se adapte al cambio en IA y big data y que no se quede obsoleta a la primera de cambio o incluso antes de entrar en vigor. Además, la legislación debe tener un carácter internacional, pues las nuevas herramientas en cuestión tienen un ámbito que supera el nacional. La actividad de empresas como Google o Facebook no se limita a los países en los que éstas tienen su sede. Así, las consecuencias de la actividad de todas las partes tienen repercusiones internacionales que deben legislarse a ese mismo nivel.
¿Cómo hay que regular? Se entiende que habrá que diseñar fórmulas para las nuevas herramientas, buscar el consenso internacional y definir la intervención de cada una de las partes, y quién será la entidad encargada de supervisar. Se requieren grandes consensos, para que quienes utilicen los datos, tanto en el ámbito nacional como en el internacional, sepan si están o no en la legalidad. La legislación debe buscar cubrir las grandes brechas legales que existen en el mundo respecto al manejo de datos.
Pero a la hora de regular, las autoridades deberían potenciar la generación de ideas respecto a las herramientas del uso de datos y no pretender sólo controlar y restringir su avance. La regulación debería ayudar a crear para poder funcionar defendiendo eficazmente nuestro bienestar individual y colectivo. Las políticas restrictivas adoptadas en Europa pueden haber limitado las capacidades de las empresas europeas que actualmente no están al nivel de las de otros países como Estados Unidos o China. Europa se ha quedado atrás en la digitalización, no tiene ningún jugador de escala relevante y tampoco tiene activos significativos en materia de datos; esto se debe probablemente en parte a una voracidad regulatoria en aspectos que no se han siquiera desarrollado. El problema se agrava cuando al restringir no se cierra la puerta a otros contrincantes, sino que, por el contrario, se deja un escenario abierto para las empresas de otros países.
Para alcanzar un estilo de regulación que promueva usos útiles, más que prohibir, sería oportuno fijarse en principios más que en reglas: probablemente la legislación tenga que tender más a los principios y menos a las reglas, dejando espacio para un cumplimiento de fondo más que simplemente formal. Y cualquiera sea el efecto de la regulación sobre el avance de las tecnologías, es imprescindible contar al mismo tiempo con la educación como un camino más neutro, que llegaría a los límites a donde la ley no puede llegar. La verdadera democratización de los datos sólo se puede alcanzar si la educación de los ciudadanos, de aquellos que generan los datos, se desarrolla a gran escala.
La educación en temas de IA y big data se plantea como concienciación de los ciudadanos respecto a la generación y el uso de datos personales. Los usuarios de internet y de diversas aplicaciones aceptan sin verdadero conocimiento las políticas de privacidad en las que otorgan el uso de sus datos. Así, las grandes compañías toman decisiones utilizando información que los ciudadanos brindan sin plena conciencia y sacan conclusiones de los cruces de datos, mucho más allá del consentimiento dado por el usuario. Para avanzar en el debate respecto a si es ético o no usar unos datos cuando las personas que los han brindado desconocen el uso y el fin que se les da, probablemente la única vía sea la educación como herramienta para hacer que los ciudadanos sean verdaderos dueños de sus datos, conscientes de la información que deja su huella, y capaces de mirar de forma crítica cualquier propuesta que reciban del mercado. Este es el proceso que algunos llaman “empoderamiento del usuario”.
Abundancia y libertad, ¿servidumbre o servicio?
Los datos están acelerando el desarrollo de los negocios. Gracias a las herramientas de marketing digital, las empresas estudian las interacciones de los clientes e intentan ofrecer un servicio que responda a esa actividad. Se reconocen los comportamientos de los usuarios y a raíz de ahí se elaboran plataformas que responden a sus gustos y necesidades. Cuanto más se conoce a un cliente, más se especifican las interacciones comerciales que tiene la empresa con él. Con esto, big data supone un avance en mercadotecnia que no tiene precedente, por lo que supone en el ajuste de la publicidad al cliente específico. Con base en el conocimiento generado por los datos, las empresas pretenden generar una nueva “capa de valor”. La duda razonable es si se trata de valor sólo para la empresa, o también para el consumidor.
Nos encontramos en el escenario de la abundancia, en el que cada vez se conoce más al cliente, gracias al análisis de una enorme cantidad de datos, y se le ofrece lo que se cree que puede interesarle, lo que se traduce a menudo en un amplísimo abanico de posibilidades. Pero ¿qué implicación tiene eso sobre la libertad de los usuarios si la información que recibe el cliente se dirige a exacerbar sus emociones, puesto que se busca que compre un servicio y que esta compra se haga de forma inconsciente? El cliente muchas veces no es capaz de gestionar la abundancia que se le ofrece; en este sentido, las herramientas de marketing digital podrían estar coartando la libertad de los ciudadanos.
Como se verá en otra sesión más adelante, los medios de comunicación ofrecen un ejemplo de esta amenaza a la libertad de información en la medida en que el uso de técnicas digitales se acompaña con una creciente concentración del control de los medios en pocas manos. No se pueden olvidar, por otro lado, las grandes fracturas y las tremendas disparidades que se mantienen o se incrementan en el mundo, por procesos que ningún algoritmo hasta ahora ha podido impedir o resolver. Estas dimensiones son temas esenciales sobre los que el Seminario volverá en los meses próximos.
El tema de la publicidad, en cualquier caso, lleva inevitablemente al de la toma de conciencia de la población, pues los ciudadanos no son plenamente conscientes del rastro que están dejando, el mismo que luego es utilizado para influir en su voluntad. El usuario navega por la web y sin percibirlo crea un contenido que posteriormente repercutirá en su toma de decisiones online. Es claro que hay un juego en el que las dos partes, cliente y empresa, no parten de la misma línea, de ahí la necesidad de concienciación.
Pero también debe apelarse a la responsabilidad del usuario, que no puede pedir que se le proteja de sí mismo. Así, la nueva economía de la abundancia puede verse como limitante o como potenciadora de la capacidad de elección de las personas. Este tema justifica plenamente el título de este seminario permanente: Huella digital ¿servidumbre o servicio?. Para saber si el uso publicitario de big data amplía o limita la libertad de los ciudadanos, es imprescindible generalizar el debate, hacer que las personas sepan cuánta información les es realmente útil y redescubran, si lo han olvidado, el arte de discernir.
Listado de asistentes:
- Alfonso Carcasona, Consejero Delegado, AC Camerfirma
- Alfredo Marcos Martínez, Catedrático de Filosofía de la Ciencia, Universidad de Valladolid
- Alfredo Pastor Bodmer, Economista, Profesor emérito, IESE
- Almudena Rodríguez Beloso, Directora de Relaciones Institucionales y Corporativas, VALORA
- Ángel Gómez de Agreda, Coronel Jefe, Área de Análisis Geopolítico DICOES/ SEGENPOL
- Ángel González Ferrer, Director Ejecutivo Centro Cultura Digital Consejo Pontificio para la cultura del Vaticano
- Carolina Villegas, Investigadora de la Cátedra Iberdrola de Ética Financiera y Empresarial, Universidad Pontificia de Comillas
- Cristina San José, Chief Data Strategist, Banco Santander
- David Roch Dupré, Investigador en Formación, Instituto de Investigación Tecnológica
- Domingo Sugranyes, Director del Seminario de Huella Digital
- Esther de la Torre, Responsible Digital Banking Manager, BBVA
- Francisco Javier López Martín, Ex-Secretario General , CCOO de Madrid
- Gloria Sánchez Soriano, Directora de Transformación en el Departamento Legal Banco Santander
- Guillermo Monroy Pérez, Profesor, Instituto de Estudios Bursátiles
- Idoia Salazar, Experta en Ética en IA, Universidad CEU San Pablo
- Idoya Zorroza, Profesora Contratada Doctora, Facultad de Filosofía, Universidad Pontificia de Salamanca
- Ignacio Quintanilla Navarro, Filósofo, Educador, Universidad Complutense de Madrid
- Jesús Avezuela, Director General de la Fundación Pablo VI
- Jesús Sánchez Camacho, Profesor de la Facultad de Teología, Universidad Pontificia Comillas
- José Luis Calvo, Director de Inteligencia Artificial, SNGULAR
- José Luis Fernández, Director de la Cátedra Iberdrola de Ética Económica y Empresarial, ICADE
- José María Viñals, Socio, Squire Patton Boggs
- José Ramón Amor, Coordinador del Observatorio de Bioética de la Fundación Pablo VI
- Josep Salvatella, Fundador y Presidente Ejecutivo, RocaSalvatella
- Juan Benavides, Catedrático de comunicación, Universidad Complutense de Madrid
- Julio Martínez s,j,, Rector, Universidad Pontificia Comillas
- Pablo García Mexía, Jurista Digital, Of Council Ashurst LLP
- Raúl González Fabre, Profesor, Universidad Pontificia de Comillas
- Richard Benjamins, Embajador de Data & IA, Telefónica
- Samuel Privara, Experto en el área de cibernética, robótica e inteligencia artificial