Lo sabemos de sobra: nuestros teléfonos móviles y nuestras búsquedas en internet dejan huellas que son almacenadas por las empresas big tech, por los imperios del dato digital. Estas empresas explotan los datos –o los venden a terceros con instrumentos para explotarlos– de forma que, una vez “anonimizados”, pero siempre trazables por geolocalización, edad, desplazamientos, costumbres y compras, sirvan para atribuir perfiles de consumidor y personalizar la publicidad. El debate sobre la propiedad de los datos y la privacidad de los patrones de comportamiento está servido, lo estamos viendo en todas partes. La Unión Europea ha legislado de forma contundente sobre los datos personales y prepara una nueva extensión de la normativa sobre contenidos. Pero ¿qué nuevas dimensiones plantean estas realidades desde el punto de vista de la ética y del diálogo social? ¿Qué significa esto para la gobernanza del desarrollo tecnológico poniéndolo al servicio del interés general o, en la tradición cristiana, en la dirección del “bien común”?
La Fundación Pablo VI ha querido reunir a un grupo de expertos de distintas procedencias –tecnólogos, filósofos, economistas, empresas, trabajadores– para reflexionar en un contexto interdisciplinar sobre la explotación mediante algoritmos de los grandes repositorios de datos no estructurados que se recogen continuamente de los comportamientos humanos, pero también en la naturaleza, en los mercados de valores, en los datos genéticos o en los datos médicos de una población.
El uso publicitario de big data es el más conocido, ha abierto una nueva época comercial que está revolucionando todo lo que se sabía sobre el marketing. En particular, el análisis de grandes datos se está utilizando cada vez más en el mundo financiero y asegurador, para la comercialización, pero también para una mejor gestión del riesgo. Llevado al extremo, si a cada consumidor le llegan sólo las ofertas seleccionadas que tienen que interesarle en función de su perfil, ya no habría ni mercado ni competencia, estaríamos en el infierno de un mundo totalmente monopolista… Evidentemente, esta es una de las tantas exageraciones que florecen en torno a la inteligencia artificial; la realidad del mercado no es nunca un espacio inmóvil que se pueda repartir, y las preferencias de los consumidores no son nunca tan netamente clasificables como para que “se acabe el juego”.
Los debates del seminario han permitido ante todo distinguir entre varios tipos de datos y de uso de los datos. En última instancia, el uso responsable de la información siempre depende de la formación y la capacidad de discernimiento del usuario. Pero lo propio del uso de big data no está tanto en dar una mejor solución a problemas antiguos, sino en abordar eficazmente problemas nuevos en la sociedad. Por ejemplo: las ecuaciones que permiten la predicción meteorológica nacen en la primera mitad del siglo XX, pero sólo se ha podido abordar la enorme cantidad de datos estadísticos del clima desde el momento en que se han podido utilizar ordenadores potentes, cuya capacidad de cálculo ha crecido exponencialmente, y gracias al desarrollo de fórmulas algorítmicas que multiplican esa potencia y hacen que “la máquina aprenda”. Una de las primeras constataciones en el campo de la ética digital está en este discernimiento: distinguir de qué datos se trata, y para qué fin se están explotando. Cuando se trata de fenómenos catastróficos naturales, de enfermedades o de pandemias, probablemente existe la obligación moral, no ya de proteger la privacidad de los datos, sino de compartirlos en el interés general. Lo mismo ocurre en medicina: el diagnóstico y el tratamiento de enfermedades avanza gracias a datos compartidos en todo el mundo, y de sus avances se beneficiarán ¡hasta aquellas personas que se hayan negado a ceder datos personales!
Como en otros campos, el desarrollo de big data al servicio del bien común supone que se construyan nuevos marcos de colaboración público-privado. Para ello es necesario anticiparse a la legislación y la regulación, que llega siempre, pero siempre a posteriori. Se requieren nuevas instancias de evaluación y de rendición de cuentas, para que los algoritmos utilizados, tanto en empresas como en organismos públicos, sean analizables de forma independiente y con una comunicación accesible de los resultados.
En el sector de los medios de comunicación, el impacto de big data es especialmente significativo: lo que aquí se selecciona “al gusto del consumidor” no son productos o servicios, sino informaciones y opiniones. En este campo más aún que en otros, preocupa la frontera entre el algoritmo que detecta comportamientos y el que tiene por objeto “empujar suavemente” su orientación en función de intereses comerciales, políticos o ideológicos. La deontología profesional del mundo de la comunicación sigue indicando una línea de conducta de calidad, pero probablemente no sea suficiente y se requiera, tanto por parte de la profesión como de colectivos de usuarios, unas nuevas definiciones de comportamiento moral que protejan la independencia y lo que, a pesar de todo el ruido, muchos seguimos considerando como “la verdad”.
Definir las condiciones que permitan considerar una consecuencia como verdadera, aunque sólo se ha haya establecido como correlación más que como causalidad; distinguir en empresas e instituciones hasta dónde puede alcanzar el ámbito de la decisión automática y cuáles son los campos en los que necesariamente se debe mantener la intervención humana; buscar las fórmulas para que se reduzca la “brecha social digital” y todos tengan acceso a los equipos y a las redes… Estos son algunos de los temas sobre los que, en su segunda fase que empieza en noviembre, el seminario convocado por la Fundación Pablo VI intentará diseñar, no un código ni un manual, sino unas guías de reflexión ética para quienes deben tomar decisiones en materia de digitalización.
Domingo Sugranyes Bickel
Director del Seminario permanente Huella Digital,
¿servidumbre o servicio?