A lo largo de la historia, ninguna de las revoluciones tecnológicas ha estado exenta de crítica. A pesar de sus beneficios, de los avances y la mejora en la vida de los ciudadanos, la constatación de sus riesgos y el auge de una literatura cada vez más negativa, envuelve a la revolución digital en un halo de pesimismo y desconfianza.
En los últimos meses, una nueva herramienta ha puesto en jaque a educadores, instituciones, juristas y políticos. ChatGPT, un algoritmo entrenado con miles de millones de páginas e información procedente de internet, permite responder a prácticamente cualquier consulta, siendo capaz de elaborar discursos, generar conversaciones y crear textos con un estilo y un lenguaje preciso y rico. Las posibilidades son inmensas, pero también las incertidumbres sobre sus riesgos, que van desde la eliminación de empleos hasta la desaparición del trabajo intelectual.
Como ya se viviera en los primeros años de la revolución industrial con la quema de las máquinas que sustituían la fuerza bruta, hoy este desarrollo imparable genera un vértigo y una inquietud que nos hace vivir, como dice Pablo García Mexía, jurista y experto en derecho digital en una suerte de ciberfatalismo. Esto es, el miedo y rechazo ante cualquier nuevo avance. Pablo es Letrado de las Cortes Generales y miembro del seminario Huella Digital: ¿servidumbre o servicio?
P.- Pablo, ¿está justificado ese ciberfatalismo? ¿Somos realmente víctimas de la tecnología?
R.- Es innegable que tenemos problemas, como la propia deshumanización de las personas. Dedicamos muchísimo tiempo a las redes y a los medios digitales, prácticamente al levantarnos por la mañana lo primero que hacemos es encender el móvil, hay problemas incluso de adicciones… Está también el riesgo, que algunos señalan como principal, de la vigilancia, nos sentimos de alguna manera perseguidos o espiados. Sabemos que nuestras actividades, conductas, e incluso hábitos de consumo en línea están siendo seguidos por determinadas compañías tecnológicas, y esto está generando una cierta sensación de escepticismo y desconfianza.
Todo esto es innegable, pero ir del escepticismo y la desconfianza a reacciones que van más allá, que son las que trato de etiquetar y definir como fatalistas, hay un trecho importante. El fatalismo tiene orígenes en el ludismo, la propia quema de algunos de artefactos tecnológicos que comenzaban a surgir hace ya 200 años y que no parece que fuera entonces ni ahora solución alguna frente a ningún posible avance tecnológico. Tiene también antecedentes en el pensamiento distópico de novelas como Un mundo feliz de Aldous Huxley, 1984 de George Orwell, o películas como Tiempos Modernos, de Charles Chaplin, donde critica los primeros aterrizajes de la tecnología en las grandes fábricas y unidades de producción. Los problemas que se plantean son innegables, y esta desconfianza que se genera es evidente. Pero el fatalismo es una visión excesivamente catastrófica y negativa de los riesgos que se corren que, además de no proporcionar solución alguna, nos introduce en este casi cuarto oscuro de críticas que no van más allá.
P.- Una de las cuestiones sobre las que más has reflexionado en estos últimos años ha sido sobre el dilema entre libertad y seguridad. La pandemia nos hizo más flexibles y menos reacios a la cesión de nuestros datos en aras de un bien mayor, que era la salud y la seguridad de las personas. El modelo chino para atajar el virus, en el que ese control fue llevado al extremo, fue incluso mirado con simpatía en Europa en los primeros meses, aunque los acontecimientos posteriores en el país mostraron cómo ese control a la larga fue peor… ¿Ha supuesto la pandemia un antes y un después en esa claudicación del ciudadano ante el control de nuestros datos?
R.- Lo primero que hay que decir es que el modelo chino, tanto desde el punto de vista tecnológico como desde el punto de vista legal o jurídico, está claramente a años luz del modelo de países libres y del mundo occidental. Ese modelo chino podría considerarse ciberfanatismo o tecnofanatismo, que ha convertido el avance tecnológico desde el punto de vista geopolítico en una prioridad absoluta. Todos sabemos, desde hace mucho tiempo, que China quiere convertirse en la primera potencia en todos los órdenes por lo que se avanza en el ámbito tecnológico sin parar en mientes en nada.
Aunque han aprobado leyes sobre privacidad y derechos, su lectura no tiene nada que ver con la que se hace en los países occidentales, donde lo que cuenta es la persona y su dignidad, y los individuos como seres irrepetibles y únicos. En China estas leyes son una mera etiqueta, un traje a la medida de las necesidades de un régimen donde cuentan los fines objetivos, la colectividad y lo que dicta el Partido Comunista Chino. Por tanto, todo lo que ha supuesto el combate y la lucha contra la pandemia allí se sitúa en un debate completamente incomparable.
En cuanto a la realidad occidental en la lucha contra la pandemia, mi postura es muy clara: por encima de la privacidad de las personas fallecidas estaba la necesidad de salvaguardar la vida, la salud y la integridad de las personas. Eso no quiere decir que haya que acabar rotundamente con la privacidad, pero sí desde luego, dentro de ese equilibrio siempre difícil, se debe priorizar la vida y la salud de las personas.
No obstante, ahora que la pandemia ya pasó tenemos que recuperar como ciudadanos todas nuestras libertades; y, entre ellas, por supuesto, la protección de datos y la privacidad sin límite alguno.
P.- 1984 es una crítica a los totalitarismos y a los estados como controladores absolutos de las libertades. En los países occidentales el control de estos datos no lo tiene el Estado, como ocurre en China, pero hay quienes dicen que estamos a merced del monopolio de las empresas tecnológicas. ¿Se puede hablar de una forma de totalitarismo con las big tech? ¿Vivimos en lo que llaman el capitalismo de la vigilancia?
R.- Yo me resisto muchísimo a hablar de totalitarismo. Es más, yo diría que no, que en modo alguno. Fíjate además qué días más adecuados para poner en duda este monopolio si tenemos en cuenta lo que está sucediendo con la irrupción brutal y el gran uso que se está haciendo de ChatGPT. Esto viene de una pequeña empresita de Silicon Valley, que ha diseñado una herramienta basada en los llamados algoritmos inteligentes; esto es, el llamado aprendizaje profundo (machine learning o deep learning ya usado en otros contextos), con la novedad de que lo empaqueta y lo convierte en un producto de consumo para grandes y pequeñas empresas y para particulares. Esto ha supuesto un éxito absolutamente brutal que está “rompiéndoles la cadera” a estas supuestas monopolísticas empresas omnipotentes que ya conocemos y que están ahora mismo a la carrera para hacerse cargo de esta tecnología.
En cualquier caso y, volviendo al temor por ¿cómo sería nuestra vida si, perdidos en un bosque, no tuviéramos un buscador como Google Maps? Puede que se utilicen nuestros datos, puede que se haga en ocasiones de modos que realmente no conocemos, pero, sin estas herramientas en determinadas circunstancias, sencillamente ya no podríamos vivir, porque cubren necesidades críticas de millones de personas todos los días en todas las partes del mundo. Es más, si los modelos y servicios de este tipo de empresas demonizadas más abiertamente por las críticas ciberfatalistas se interrumpieran muy probablemente quedarían fuera de este sistema las personas que menos pueden pagar los modelos alternativos. Por tanto, dejar fuera de la línea a cualquier persona es importantísimo, pero excluir a quienes no pueden permitirse el modelo de pago es crítico.
Como dicen los grandes sociólogos, personas con medios económicos siempre van a tener mil posibilidades de conectarse con muchas otras a lo largo y ancho del planeta, pero aquellas que tienen medios económicos limitados y que son vulnerables, todo lo que pueden hacer es relacionarse a una escala pura y simplemente local. Por tanto, o les abrimos el mundo que internet les permite o, sencillamente, les vamos a dejar fuera de toda la comunicación crítica y básica en el siglo XXI.
P.- Uno de los principales problemas que plantea ChatGPT es su uso en el ámbito universitario. ¿Dónde quedaría el trabajo intelectual?
R.- Sin duda este es el mayor reto. De hecho, en el propio Parlamento español se ha acordado crear una ponencia de estudio sobre los retos del uso de este tipo de herramientas en el ámbito universitario donde existe el riesgo de tirar de una herramienta que, en efecto, puede interferir o sustituir todo aquello que estimula el pensamiento crítico, como son los exámenes o la elaboración de ensayos. Incluso en su versión gratuita, la herramienta es capaz de elaborar textos en vivo y en tiempo real de una forma perfectamente presentable, lo que da casi miedo.
El temor está ahí, pero, como ha sucedido con otras irrupciones tecnológicas en el pasado, creo que lo acabaremos encauzando de forma natural. Ya los buscadores de Internet supusieron un problema en este sentido y existen herramientas como el Turnitin que consiguen detectar el plagio. Del mismo modo, estoy seguro de que acabará apareciendo una herramienta que detecte la elaboración de estos textos mediante estas vías.
Fíjate que ya en el siglo XV ocurrió lo mismo con la imprenta. Un ejemplo: en el año 1492 un monje alemán escribió un libro, con el título Alabanza de los escribas, en el que ponía en valor un trabajo artesano que iba a desaparecer. En aquellos años ya había muchos libros impresos circulando por Europa. ¿Sabes lo que hizo nada más acabar el libro he escrito por él? Como no podía ser de otra manera, lo mandó a la imprenta.
P.- El fatalismo tecnológico presenta al ciudadano como víctima. ¿No es eso una forma de eludir nuestras propias responsabilidades como consumidores? En el seminario Huella Digital ¿servidumbre o servicio? hablabas de eso, precisamente…
R.- Es que ese es el punto clave. Todas las visiones fatalistas, especialmente las tecnológicas, acaban olvidando dos cuestiones fundamentales. Primero, que el entorno digital nos gusta; y, segundo, que esto es mucho más que un capricho y que nos acaba haciendo muchísima falta. En este sentido, el filósofo Zygmunt Bauman, recogiendo las ideas de Víctor Frankl, ya explicó cómo ni el nazismo ni el totalitarismo fueron capaces de anular nuestra voluntad, y que son las decisiones y no las condiciones las que acaban teniendo la última palabra…
No hay que negar que esta tecnología nos condiciona, que se nos trata de vender productos y que se comercia con nuestros datos de un modo probablemente mejorable… Pero ¿significa esto que no tenemos capacidad alguna de juicio o de raciocinio? ¿Justifica esto nuestra infantilización? En este sentido, hay una frase memorable de Norbert Weiner, el inventor de la cibernética, que es clave cuando dice “ni somos todos tontos, ni somos todos canallas”. Es decir, la persona media tiene capacidades razonablemente aceptables para saber qué es lo que se está haciendo con él, como las tiene, desde un punto de vista ético, para no ir por ahí incendiando, matando o haciendo mal a otros. No se nos puede infantilizar y esto no significa que no haya colectividades vulnerables (niños, personas mayores o con educación limitada, en riesgo de exclusión, etc.), que no requieran una atención especial respecto a sus conductas online. El problema es que, si generalizamos la vulnerabilidad de la mano de esa infantilización hasta el punto de considerar que todos siempre, en toda circunstancia, somos poco menos que tontos o niños pequeños, ocurre al final que nadie lo es.
En este sentido, la responsabilidad es el criterio clave. Y las vías de solución a este fatalismo tienen que ir de la mano de considerar que somos personas adultas y que debemos ser responsables de nuestros actos, especialmente los que tienen que ver con el consumo online.
P.- En los últimos tiempos hemos visto cómo el uso de los datos puede ser usado para manipular o condicionar la voluntad y el voto en las elecciones, tal y como vimos en EE.UU. o en Reino Unido con el Brexit. Se sabe que los partidos políticos usan bots aunque no lo reconozcan. ¿Qué precauciones debemos que tomar de cara a las nuevas elecciones?
R.- Este asunto es clave también, pues tiene que ver con los usos políticos y groseros que ha habido en el pasado en los procesos electorales. España en concreto está razonablemente bien protegida en este sentido. Es verdad que en algunas partes del Reglamento General de Protección de Datos se abre la posibilidad de recopilar información sobre opiniones políticas de personas, siempre y cuando se consideren de interés público y con las garantías adecuadas. Pues bien, los legisladores españoles se movilizaron inmediatamente ante esto y decidió incluir en el artículo 56 de este reglamento europeo una cláusula que el Defensor del Pueblo recogió, planteando inmediatamente un recurso para declarar absolutamente inconstitucional el uso de datos con opiniones políticas de personas por parte de los partidos políticos. Así, el TC, en la sentencia 76/19, nos protege para evitar que los datos u opiniones que nosotros vertemos en la red sean manejados o controlados. Algo en lo que se viene trabajando desde hace tiempo en Europa donde, a pesar de no estar entre los primeros en desarrollo tecnológico (de las 25 tecnológicas mayores del mundo, solo 3 son europeas), sí estamos a la cabeza en regulación digital, ofreciendo desde hace años pautas, recomendaciones y guías para ayudar a los estados europeos a combatir este tipo de prácticas de desinformación o de condicionamiento de procesos electorales.
Dicho esto, no podemos eludir nuestra responsabilidad en el uso de las fuentes de información, porque circulan por redes muchas veces bulos y piezas supuestas de correcta información que no lo son en absoluto. Es cierto que el periodismo ha vivido unos años muy duros de descrédito por la irrupción de los medios digitales, pero nunca puede perder su función clave de filtro para calificar o distinguir lo que es la información buena de la que no lo es. Por tanto, nosotros como ciudadanos debemos ser muy conscientes de la necesidad de ir a fuentes fiables y buenas más allá de las redes sociales. Así será más difícil que se manipulen nuestros datos y que acabemos mordiendo en este tipo de anzuelo desde el punto de vista electoral.
Sandra Várez González
Directora de Comunicación de la Fundación Pablo VI