Síntesis de la sesión del 14 de marzo de 2024
La sesión mensual del seminario permanente de la Fundación Pablo VI ha tenido lugar el 14 de marzo. Después de las dos sesiones anteriores, que versaron sobre el contexto geopolítico global y las fuerzas y debilidades de las instituciones europeas en el momento actual, esta tercera sesión introductoria entra de lleno en la cuestión que subyace en el seminario permanente, iniciado en 2019 en torno a la “huella digital”: ¿cómo se elabora una respuesta institucional ante los desafíos de la digitalización y la transformación del trabajo?
Jesús Avezuela, Domingo Sugranyes, Idoia Salazar y José Luis Calvo
En su ponencia, Idoia Salazar, presidenta y fundadora del Observatorio del impacto social y ético de la inteligencia artificial ODISEIA, destaca las características innovadoras de los productos tecnológicos más recientes, por ejemplo, ChatGPT: se trata de una tecnología fácil de usar, cuya utilidad es inmediata y para la que no hace falta tener conocimientos de programación. El apoyo prestado por estas aplicaciones es evidentemente útil, pero despierta, una vez más, el miedo social a la pérdida de los puestos de trabajo. ¿Estamos confiando excesivamente en la inteligencia artificial (IA)? ¿No es suficiente el marco ético “ordinario” para gobernar estas realidades? Como cualquier nueva tecnología, se requieren nuevas normas de diseño y de uso; pensemos por ejemplo en la aparición de los primeros automóviles, que hicieron indispensable diseñar unas nuevas normas de seguridad y de circulación. Algo similar ocurrió con la aparición de internet. Y es indudable que los daños que podría causar un mal uso de la IA son importantes.
En este contexto, se han enunciado ya desde múltiples fuentes cuáles han de ser las características de diseño y de uso de la IA desde un punto de vista de ética social: se habla de fairness (imparcialidad), transparency (transparencia), reliability and safety (confiabilidad y seguridad) privacy and security (privacidad y protección segura), accountability (rendición de cuentas), inclusiveness (no discriminación). Los principios no son nuevos, por supuesto, pero se trata de aplicarlos en el uso de unas tecnologías innovadoras, y de hacerlo con carácter obligatorio, sin confiar sólo en el buen hacer voluntario de los actores.
Idoia Salazar
El objetivo básico de la ley europea es proteger los derechos fundamentales, la salud y la seguridad de las personas. Otros objetivos secundarios son aumentar la confianza hacia la IA entre los consumidores, aumentar la excelencia y la aceleración de inversión en IA y llegar a la sostenibilidad ambiental. El entrenamiento de modelo de IA generativa deja mucha huella de carbono. Hay que intentar no contaminar en el desarrollo de nuevos modelos del lenguaje tecnológico.
La ley europea de IA (AI Act), actualmente en vías de aprobación, no pretende regular la tecnología como tal, sino su uso. En este sentido establece una especie de semáforo. Distingue en primer lugar algunos usos prohibidos (salvo en condiciones muy especiales y limitadas):
- Despliegue de técnicas subliminales, manipuladoras o engañosas.
- Explotar las vulnerabilidades relacionadas con la edad, la discapacidad o las circunstancias socioeconómicas causando daños significativos. Por ejemplo, está prohibido rastrear emociones de los individuos en el lugar de trabajo salvo por cuestiones específicas de seguridad.
- Sistema de categorización biométrica que infieran atributos sensibles como la raza o las opiniones políticas, salvo que sea bajo orden judicial o en contextos muy específicos como el rastreo de terroristas o búsqueda de niños perdidos.
- Puntuación social
- Evaluar el riesgo de que un individuo cometa delitos penales basándose únicamente en perfiles o rasgos de personalidad.
- Compilación de bases de datos de reconocimiento facial
- Inferir emociones en lugares de trabajo o centros educativos, salvo por razones médicas o de seguridad.
- Identificación biométrica remota (RBI) en tiempo real en espacio de acceso público para las fuerzas de seguridad.
A continuación, la ley define los usos sometidos a limitaciones prudenciales importantes, aplicables a cualquier sistema cuyo desarrollo pudiera conllevar un impacto negativo en los derechos fundamentales, la salud y la seguridad; en esta categoría del semáforo “naranja” caen la mayoría de las aplicaciones de IA, desde la educación hasta el acceso al crédito o a servicios públicos y privados, la administración de justicia y el seguimiento de la aplicación de la ley, hasta la gestión de la migración. Estos usos deberán cumplir con requisitos de calidad de los datos que alimentan el sistema, trazabilidad de los resultados, robustez y precisión, y se exponen a elevadas multas en caso de incumplimiento.
Luego están las aplicaciones de riesgo medio, a las que se exige transparencia y trazabilidad, y las aplicaciones de riesgo bajo, como los chatbots o los filtros de spam. Como regla general, tienen consideración a parte las aplicaciones de IA de “propósito general” (GPAI), entrenadas con una gran cantidad de datos y capaces de realizar una amplia gama de tareas distintas; en estos casos se requiere la elaboración de una documentación técnica sobre los datos utilizados, en la que se garantice el respeto de la normativa sobre derechos de autor. Cuando su uso supera cierto nivel cuantitativo de datos o de fuerza de computación se considerarán como aplicaciones de riesgo sistémico, con requisitos aún más exigentes.
La implementación de esta ley no irá sin dificultades, especialmente en empresas pequeñas y medianas. Para ayudar a las pymes españolas, la Secretaría de Estado de Digitalización e IA está elaborando unas guías técnicas específicas para cada artículo de la AI Act. También se prevé la emisión de un Sello Nacional de Inteligencia Artificial (sello de confianza para cualquier algoritmo de IA) y la institución de una Agencia Española de Supervisión de Algoritmos. En cualquier caso, estamos sólo al principio de un proceso: es imposible frenar el uso de la IA, pero es necesario incentivar un diseño y un uso que impidan las consecuencias negativas.
José Luis Calvo
En su comentario, José Luis Calvo, cofundador de la empresa de IA Diverger, parte de una hipótesis de trabajo: con la IA no se va a repetir el “efecto Bruselas”. En temas como la protección de datos (GDPR), la influencia mundial de la regulación europea es un hecho indudable. Sin embargo, los desarrollos de IA afectan a un ámbito mucho más amplio: son una auténtica fuerza de transformación productiva, al menos potencialmente, y sus efectos van mucho más allá de la regulación actualmente planteada. El ponente se refiere a varios estudios, como los de McKinsey[1] o Goldman Sachs[2], en los que se intenta evaluar las tareas y funciones que serán asumidas por procesos de IA. Goldman Sachs estima en 300 millones los puestos de trabajo potencialmente afectados a nivel mundial (frente a 200 millones de puestos de trabajo reales actuales en Europa). En este proceso, cuyo horizonte temporal está aún sin definir, es probable que algunas regiones ganen y otras pierdan; que unos grupos sociales ganen y otros pierdan[3]: la lógica hace pensar que habrá más sustitución de empleos en economías plenamente industrializadas que en países subdesarrollados, más en actividades avanzadas que en servicios personales. En cualquier caso, las estimaciones del número de empleos que desaparecerán indican una completa revolución del mundo del trabajo.
En este contexto, la posición de Europa no es favorable, en opinión de JL Calvo. Aunque sea sólo un indicador parcial – y la correlación no necesariamente implica causalidad –, es curioso observar que el despegue de los valores bursátiles de las big tech de Estados Unidos coincide en el tiempo con la imposición de la normativa europea sobre datos. En el mismo período, la productividad de Estados Unidos ha crecido mucho más que la europea. Europa cuenta con poca presencia industrial en la IA, mientras que en Estados Unidos – y en China – se observa una creciente concentración y un fuerte incremento de la capacidad de inversión necesaria para operar en el sector. La comparación de los tamaños de las empresas tecnológicas es reveladora: Microsoft, el gigante estadounidense, es más grande que las 100 empresas tecnológicas más punteras de Reino Unido y que las 40 más importantes de Alemania. En los últimos diez años, la inversión estadounidense en IA es 10 veces mayor que la europea[4]. No se puede excluir la posibilidad de que el mercado europeo quede fuera de determinadas innovaciones de IA, cuyos promotores renuncien a operar en la UE para escapar de la regulación. El avance de las aplicaciones de IA en nuevos sectores de actividad – por ejemplo, la abogacía, la medicina, la publicidad – es imparable; en opinión de José Luis Calvo, el papel de las instituciones europeas al respecto será secundario, y las empresas europeas seguirán siendo seguidoras de innovaciones que proceden de otras regiones.
Tercera Sesión del Seminario ¿Cómo responde Europa?
En el debate que tiene lugar a continuación entre los miembros del Comité de expertos, se expresa preocupación por un diagnóstico según el cual “cuanto más se regule, peor”. Sin embargo, varias intervenciones subrayan que la regulación europea reciente no es criticable en su contenido, puesto que responde a necesidades planteadas por el uso de la nueva tecnología. Su debilidad eventual proviene de unos efectos secundarios, en la medida en que por sus requerimientos pueda ser un freno al desarrollo tecnológico propiamente europeo, ya de por sí poco dinámico. Frente a ello, también se mencionan recientes iniciativas por parte del sector público, como por ejemplo un proyecto anunciado por el gobierno español de sistema de lenguaje generativo propio, del que no se conocen detalles.
La idea de que la regulación sólo afecte al uso de una tecnología “neutral” es criticada por varios participantes, quienes piensan que la gobernanza de la IA, más allá del uso de la tecnología, exigirá abordar los aspectos de concentración de poder monopolístico o de oligopolio (como la UE está ya haciendo en otros frentes) y sus efectos en el trabajo. El efecto en la transformación del trabajo no es totalmente previsible: la tecnología busca optimizar la realización de tareas, lo que no excluye la intervención humana, pero obliga a cambios profundos, eliminando puestos actuales y probablemente llevando a la creación de nuevos puestos de trabajo de forma no previsible. En esta dinámica es necesario distinguir los movimientos “horizontales” (de un país o de una región a otra) de los movimientos “verticales” (cambios en la segmentación social en un mismo país), y tener en cuenta el desfase temporal que se produce entre la destrucción y la creación de empleos. En todo ello – como se comentó ampliamente en la fase anterior del seminario de la Fundación Pablo VI y se tratará de nuevo al final del presente programa de sesiones – es necesario distinguir por un lado el trabajo, como fuente de realización humana, y por otro lado el empleo, como estructura organizativa actual, pero quizás no inamovible, de distribución de la renta. En cualquier caso, una de las políticas que más evidentemente se podrían implantar sin demora es la reducción de la imposición fiscal del trabajo humano, de manera que su coste pueda competir con ventaja ante unas aplicaciones de automatización muy productivas, pero relativamente costosas.
En definitiva, la respuesta a la pregunta planteada no es unívoca: la regulación de los usos de la IA implantada por la Unión Europea sólo responde a una pequeña parte de las posibilidades y problemas que plantea su desarrollo. Aun así, no se puede excluir que sirva como ejemplo mundial, limitado en sus efectos, pero quizás necesario en un proceso de transformación que no hace más que empezar. Y queda la cuestión subyacente: ¿estamos nosotros al servicio de la IA, o está la IA a nuestro servicio? ¿No podríamos utilizar la IA para mantener y adaptar nuestro sistema de “economía social de mercado”, y asegurar eficazmente el desarrollo de nuestro estado de bienestar?
Listado de asistentes en la sesión del 14 de marzo de 2024
- Francisco Aldecoa Luzárraga, Catedrático de Relaciones Internacionales en la Universidad Complutense de Madrid
- José Ramón Amor Pan. Director del Área Académica, Fundación Pablo VI
- Jesús Avezuela Cárcel, director general de la Fundación Pablo VI
- Agustín Blanco Martín, director de la Cátedra J.M. Martín Patino de la Cultura del Encuentro, Universidad Pontificia Comillas
- José Luis Calvo. Cofundador, Diverger
- Jesús Conill, Catedrático de Filosofía Moral y Política, Universidad de Valencia
- Esther de la Torre Gordaliza. Global Sustainability Area- Inclusive Growth, BBVA
- Jorge Díaz Lanchas, Profesor asistente de Economía, ICADE/ Universidad Pontificia Comillas
- Raúl González Fabre. Ingeniero y filósofo, Universidad Pontificia Comillas
- Paloma Llaneza. Identidad digital Eidas
- Sara Lumbreras Sancho. Profesora Propia Adjunta - Profesora titular, Universidad Pontificia Comillas
- Alfredo Marcos Martínez, catedrático de Filosofía de la Ciencia, Universidad de Valladolid
- Miguel Ángel Martínez López. Ingeniero de Telecomunicación y escritor. Director de innovación en YBVR
- Javier Prades. Rector de la Universidad San Dámaso
- Sergio Rodríguez López-Ros. Vicerrector de Relaciones Institucionales, Universidad Abat Oliva CEU
- Idoia Salazar. Presidenta de OdiseIA
- Domingo Sugranyes Bickel, director del seminario de ética socioeconómica, Fundación Pablo VI
- Fabián Torres Suárez. Decano, Colegio Oficial de Ingenieros Industriales de Madrid
- José Luis Zofío. Catedrático de Fundamentos del Análisis Económico, Universidad Autónoma de Madrid
[1] https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-ai-the-next-productivity-frontier
[2] https://www.gspublishing.com/content/research/en/reports/2023/03/27/d64e052b-0f6e-45d7-967b-d7be35fabd16.html
[3] https://www.imf.org/en/Publications/Staff-Discussion-Notes/Issues/2024/01/14/Gen-AI-Artificial-Intelligence-and-the-Future-of-Work-542379?cid=bl-com-SDNEA2024001