La inteligencia artificial planea sobre muchos ámbitos de nuestra vida. La concesión de un crédito, un diagnóstico médico e incluso la percepción que tienen los demás sobre nosotros mismos está condicionada por un algoritmo que nos facilita la vida, pero que puede, si no se controla, poner en riesgo nuestra libertad, nuestra seguridad y el modo de vida tal y como lo conocemos. Ya en el año 1973 el filósofo Hans Jonas apelaba al principio de responsabilidad, del que únicamente los humanos estamos dotados, ante los riesgos de la revolución tecnológica, que ya en estos años estaba modificando profundamente las relaciones del hombre con el mundo. Sara Lumbreras, investigadora en el Instituto de Investigación Tecnológica de la Universidad Pontifica Comillas, reflexiona en este nuevo podcast de la serie Huella Digital Servidumbre o servicio sobre los motivos que generan ese temor a la inteligencia artificial, pero también sobre el universo de bondades que abre. Entre ellas, la de despertar una inmensidad de conocimiento aún dormido.
P.- Con el paso de los años, la explosión tecnológica va dando paso a visiones distópicas sobre la inteligencia artificial y sus consecuencias. Más allá de los mitos, ¿cuánto de la vida de una persona media está condicionada por cuestiones como la IA, el big data y los algoritmos?
R.- Pues la respuesta clara es que cada vez más. Dentro de poco, el que se nos conceda o no un crédito va a estar completamente determinado por lo que determine un algoritmo, y hoy en día las ofertas que nos llegan como clientes dentro de la estrategia de márketing de la mayoría de las empresas están determinadas por la inteligencia artificial. Habrá algunos casos en que nos hagan más libres (como, por ejemplo, cuando nos enfrentamos a un problema de salud, en que el uso del algoritmo nos puede ayudar a ver qué tratamiento es mejor en función de nuestro perfil) y otras que no. Un ejemplo de lo que nos hace menos libres es, desde mi punto de vista, el uso de las redes sociales y los contenidos que se nos muestran en Internet. Se ha hablado mucho de estos filtrados que se hacen en Facebook con los contenidos que nos generan más ira que son los que más respuesta generan en las personas. Esas publicaciones generan contenidos que nos enervan y refuerzan las posturas que ya tenemos, lo que nos hace tener una perspectiva mucho más estrecha del mundo. Hace poco salió una publicación muy interesante que decía que Facebook te conoce mejor que tu mejor amigo y que era capaz de adivinar mejor cuál iba a ser tu reacción frente a determinados contenidos. El impacto de esto es que acabaremos perdiendo nuestra autonomía a la hora de escoger qué es lo que queremos leer y qué es lo que queremos aprender.
P.- Es casi una cuestión sociológica o filosófica, pero, ¿por qué se produce ese temor a que la IA se utilice para fines perversos? ¿Está justificado este temor?
R.- Creo que está justificado. Me gusta mucho una reflexión de Hans Jonas que habla de la heurística del temor y la heurística del miedo que más o menos lo que viene a decir es que si a los humanos nos da miedo algo, en el fondo es porque tenemos que tener cuidado. En el caso de las aplicaciones de inteligencia artificial está claro que esto es así y que generan mucho rechazo. Lo que tenemos que hacer es ser capaces de bloquear las amenazas, como por ejemplo en aquellos casos que afectan a la privacidad y a la integridad de los menores, porque estamos viendo un incremento horrible de los delitos que tienen que ver con ellos. En internet estamos teniendo un incremento horrible de los delitos que tienen que ver con menores: cyberbulling, depredadores sexuales que se dedican al cybergrooming o a la trata de blancas. Es muy importante que seamos conscientes de las amenazas para que podamos ponerle ese freno desde la tecnología misma y desde la legislación, desde luego. Pero también debemos aprovechar los beneficios de la tecnología que son también muchos y amplísimos.
P.- Tras el seminario permanente “La huella digital”, la Fundación Pablo VI está realizando otro que lleva por nombre “El trabajo se transforma” en el que también se habla mucho de esta cuestión. Uno de los debates más repetidos gira en torno a la posibilidad de que la IA y la robotización generen empleo, mientras que hay otros que piensan que destruirá. ¿Hay un término medio? ¿En qué lugar te encuentras?
R.- Yo estoy en el término medio. Es inevitable que la automatización haga desaparecer profesiones perfectamente estables hasta ahora, como por ejemplo la de contable, que podrían tener los días contados porque son trabajos perfectamente automatizables: por ejemplo, los contables podían tener los días contados. Esto también está generando una crisis, más allá de lo que solemos ver. Por ejemplo, ahora mismo el mayor problema para los directivos de consultoría es que no saben dónde comprar talento porque las tareas que normalmente se utilizaban para formar a las nuevas incorporaciones, como hacer los análisis de manera manual para poder comprenderlos bien y luego poder llevarlos a un máximo nivel con clientes, estaban ya automatizadas y no eran capaces de encontrar gente que tuviera ese conocimiento básico.
Nos vamos a encontrar con muchos problemas de formación para la adaptación, pero mi postura es que tenemos que ser muy cuidadosos con cómo montamos nuestro sistema económico del futuro, que probablemente pase por cambiar la concepción del trabajo que tenemos. El tema es cómo conseguimos que esos servicios de persona a persona, los trabajos que son verdaderamente creativos y que no pueden automatizarse, sean suficientes para que la totalidad de la población tenga un standard de vida decente. Quizá tengamos que cambiar nuestra opinión de lo que es trabajo remunerado o no remunerado, siendo ésta una buena ocasión para discutir sobre la remuneración de los cuidados y su reconocimiento en la economía. Creo que muchos trabajos van a desaparecer, pero eso no debería ser un problema si hiciéramos una buena gestión de lo que debería ser esta concepción nueva del trabajo.
P.- Por último y para cerrar como empezábamos: se puede explicar a la gente algún aspecto de la IA que afecte en positivo a su día a día.
R.- Es que hay tantísimos ejemplos… yo citaría el uso secundario de datos médicos para predecir la evolución de la enfermedad. Y aquí también hay consideraciones éticas que hay que tener en cuenta referidas al uso de datos de pacientes reales, etc. Hay tanta cantidad de conocimiento dormido que puede salir con la inteligencia artificial… Nosotros tenemos tanta cantidad de conocimiento dormido que puede salir con la inteligencia artificial que nos puede ayudar a determinar mejor el tratamiento para un cáncer, a saber cuándo un paciente tiene más probabilidades de tener un brote de Crohn, a cribar qué pacientes tienen más probabilidades de tener un defecto genético que les lleve a tener una determinada enfermedad, o durante el COVID, por ejemplo, fuimos capaces de ver quién necesitaba ventilación asistida o no, cómo priorizar, asignar recursos de manera eficiente, etc. Eso sin inteligencia artificial es imposible. Simplemente pensar la ciencia que hay dormida en esos datos es una posibilidad maravillosa.