14/01/2025
Foro de Encuentros Interdisciplinares con la presencia de Paolo Benanti.
Reflexiones sobre ética y conciencia en la era de la IA
“Nos encontramos en la encrucijada de un cambio paradigmático, donde nuestras decisiones actuales sobre la IA y su regulación modelarán la esencia misma de nuestra sociedad y humanidad en las décadas venideras”
El 14 de diciembre de 2023 se llevó a cabo en la Escuela Técnica Superior de Ingeniería de la Universidad Pontificia Comillas el VII Seminario Interdisciplinar Tecnología y Religión, organizado por la Cátedra Hana y Francisco J. Ayala de Ciencia, con el objetivo de debatir sobre la inteligencia artificial (IA) y su intersección con la humanidad. El seminario brindó una magnífica ocasión para reflexionar sobre los recientes avances en la legislación sobre IA en la Unión Europea.
A partir de un análisis etimológico de la palabra, el seminario comenzó con un estudio histórico-filosófico de la inteligencia (Alfredo Marcos), marcando así el camino que se reflejaría en una reflexión sobre el fenómeno emergente de la IA que estamos tratando de comprender y que se está integrando en nuestra existencia a una velocidad exponencial. Ya a partir de la primera ponencia, se planteó el enfoque central que surgió en prácticamente todas las intervenciones: la distinción entre la inteligencia humana y la artificial, al menos hasta la fecha, siendo esta última carente de conciencia.
Para reforzar esta idea, Marcos se posicionó en contra de términos como “aprendizaje automático” (machine learning) y “aprendizaje profundo” (deep learning), que pueden sugerir erróneamente que las máquinas son capaces de pensar. En su lugar, expresiones como “inteligencia asistida” o “ampliada” proponen un modelo de colaboración en lugar de autonomía, invitándonos a reflexionar sobre el rol de la IA: no como una entidad independiente, sino como una herramienta que amplifica nuestras capacidades humanas.
Esta idea se fue consolidando a lo largo del desarrollo de la jornada, resaltando la idea que la IA puede realizar tareas específicas y resolver problemas concretos, pero carece de una verdadera comprensión y de la capacidad para enfrentar problemas en un sentido más abstracto, ya que simplemente no posee la facultad de tenerlos. Esta marcada distinción coloca a la IA en un profundo contraste con la inteligencia humana, la cual está intrínsecamente vinculada a nuestra habilidad para navegar, comprender y resolver problemas en un contexto de vida real.
En este sentido, se pusieron de manifiesto las facetas de la inteligencia humana, explorando temas como la inteligencia emocional y la inteligencia cordial (Alicia Villar) con el objetivo de enfatizar el valor de cualidades humanas como la amabilidad y la cordialidad, considerándolas formas típicamente humanas de comprender y afrontar la realidad. Además, se analizó la forma en que los seres humanos aprenden a través de la inteligencia pedagógica (Nereida Bueno), resaltando cómo el aprendizaje humano trasciende la mera acumulación de conocimientos. Se abordaron también los temas de la inteligencia colectiva (Adolfo Castilla) y de la inteligencia espiritual (Pedro Rodríguez Panizo).
Esta distancia determinada por la conciencia (la predisposición a tener estados mentales, voluntad, intuición, fantasía) que caracteriza los seres humanos quedó claramente reflejada en las fascinantes presentaciones finales sobre la inteligencia consciente (Carlos Blanco y Eduardo Garrido), con una clara referencia a la “habitación china” de John Searle, un argumento que cuestiona si la IA, por avanzada que sea, puede realmente “entender” en el mismo sentido que un humano, lo que toca la esencia de la conciencia y la comprensión.
Estas presentaciones invitaron a considerar aspectos de la IA que van más allá de lo técnico y tangible, adentrándonos en un territorio que cuestiona la relación entre la tecnología y el espíritu humano y considerando las combinaciones posibles de una inteligencia con conciencia (los seres humanos), de una conciencia sin inteligencia (por ejemplo, los seres humanos en estado de coma) y de una inteligencia sin conciencia (la IA).
Es un hecho: en la actualidad la IA no tiene una conciencia y esto marca una diferencia, me atrevería a decir, abismal con lo que significa ser humano. Sin embargo, a lo largo del curso se fue generando una sospecha, más o menos declarada: ¿la IA podría en algún momento tener una conciencia?
Esta sospecha se fue reforzando a través de algunas consideraciones presentes en las intervenciones sobre los límites de la IA (Álvaro López, Mario Castro y Javier Sánchez Cañizares), así como en la ponencia sobre la posibilidad de una “justicia artificial” (Federico de Montalvo). En la primera, se plantearon cuestiones fundamentales sobre las capacidades y limitaciones de la IA, comparándolas con las habilidades humanas. Un punto crucial fue el “problema de la alineación” entre el cerebro humano y la IA, subrayando la complejidad de programar máquinas que comprendan nuestras intenciones y objetivos. Este desafío resalta la importancia de garantizar que los sistemas de IA actúen en consonancia con los valores humanos, lo que abre la puerta a cuestiones éticas en el ámbito de la nueva tecnología.
En la segunda intervención sobre la “justicia artificial”, se planteó la pregunta de si la IA podría asistir en la revisión de casos legales, reconociendo al mismo tiempo sus limitaciones en comprender contextos culturales y matices éticos intrínsecos al razonamiento jurídico. De hecho, aunque la IA puede llegar a conocer todas las leyes, carece actualmente de la capacidad de juicio e interpretación necesaria para comprender verdaderamente el derecho. Se argumentó que el concepto de justicia, ligado a normas objetivas, posee un componente de subjetividad que la IA no puede replicar.
La cuestión de la conciencia, de los límites y del derecho en el ámbito de la IA nos llevan naturalmente a considerar los últimos avances de la Ley de IA que se va desarrollando en la Unión Europea. Aquí vemos cómo los conceptos teóricos discutidos se traducen en acciones legislativas concretas, enfrentando desafíos éticos similares en un marco legal.
Regulación europea y derechos universales del ser humano
El 9 de diciembre de 2023 marcó un hito importante para la Unión Europea, ya que su Parlamento alcanzó un acuerdo provisional con el Consejo respecto a la Ley de IA[1]. Este pacto, que aún requiere la aprobación formal tanto del Parlamento como del Consejo, es un paso crucial para su incorporación como legislación oficial en Europa, que sería el primer continente que tiene una legislación sobre la IA.
La propuesta de la Ley de IA de la UE, iniciada en abril de 2021, busca regular la inteligencia artificial para proteger los derechos fundamentales de sus ciudadanos. De hecho, esta convivencia con la IA podría generar un conflicto, y por ello se quiere una ley con el propósito de evitar la intrusión en los derechos fundamentales de los ciudadanos europeos. Esto incluye el establecimiento de reglas estrictas para los sistemas de vigilancia biométrica en espacios públicos y la regulación de sistemas de inteligencia artificial generativa, como ChatGPT, que deben cumplir criterios de transparencia y respeto a los derechos de autor. Además, se quiere enfatizar la adaptabilidad de la legislación para abordar los desarrollos tecnológicos impredecibles que puedan surgir en el futuro.
Hay que señalar que este proceso legislativo va a tardar, según las previsiones de la UE, aproximadamente dos años más para completarse, lo cual genera una duda inevitable sobre si el ritmo de la legislación puede mantenerse al día con el desarrollo exponencial de esta tecnología al cual asistimos en la fase histórica actual. Además, la ley pretende alinearse con los derechos humanos universales, pero aquí cabe preguntarse: ¿de qué universalidad estamos hablando? La pregunta puede parecer una trampa, pero no lo es, porque vuelve a plantear una cuestión antigua sobre la idea europea de universalidad frente a una universalidad absoluta dentro de la especie humana.
La relación entre la ley de IA de la UE y los derechos universales del hombre es un tema complejo y multifacético. Mientras que la UE busca regular la IA para proteger los derechos fundamentales de sus ciudadanos, surge la pregunta de cómo estos esfuerzos se alinean o entran en conflicto con los conceptos de derechos humanos a nivel mundial.
Hoy en día, Europa es el único continente en que se está discutiendo sobre una ley sobre la IA, al punto que Thierry Breton, Comisionado Europeo para la Industria y los Servicios Digitales, compartió en redes sociales un gráfico circular resaltando que la Unión Europea es la única región del mundo que está implementando una regulación sobre la Inteligencia Artificial[2]. ¿Es este un motivo de orgullo, mostrando el liderazgo de Europa en la regulación de tecnologías emergentes, o es el primer paso hacia una puesta en discusión de la universalidad de los derechos humanos?
¿Cómo impactará esta ley en la interacción global, especialmente en regiones con diferentes enfoques sobre la privacidad y los derechos individuales, como es el caso, por ejemplo, de Estados Unidos, China, Rusia e India? Además, ¿podrá la UE influir en normativas internacionales o se enfrentará a desafíos debido a las diferencias ideológicas y políticas?
En un nivel más abstracto, pero esencial porque el tema de discusión nos interesa a todos en primera persona, la universalidad de los derechos humanos y la IA plantea un debate complejo: ¿son los derechos universales del ser humano aplicables y aceptables a nivel mundial, o existe un riesgo de (volver a) imponer un paradigma occidental? Estas preguntas destacan la tensión entre la regulación regional y la naturaleza global de la tecnología, y la necesidad de un diálogo internacional para alcanzar un entendimiento común sobre los derechos humanos en la era digital.
La intimidad y la cuestión moral
Otro tema particularmente relevante en el texto de la ley es la prohibición de sistemas de reconocimiento de emociones entre las agencias de seguridad, en los controles fronterizos, en el lugar de trabajo, en instituciones educativas. Lo cual indica que estas tecnologías tienen el potencial de profundizar nuestra comprensión de las emociones humanas, pero también el peligro de reducir nuestras emociones a meros datos cuantificables, despojándolas de su complejidad y significado inherente. Este punto toca la advertencia de Martin Heidegger sobre la tecnología y su potencial para alienar al ser humano de su esencia, al reducir nuestras ricas experiencias emocionales a meros datos cuantificables. En general, estas tecnologías podrían utilizarse para el bien social, como en el caso de la aplicación de la ley. Por otro, existe el temor legítimo de que su uso indebido pueda llevar a violaciones de la privacidad, discriminación y pérdida de la autonomía individual.
El escenario actual, en el que la IA se entrelaza cada vez más con la esencia misma de lo humano, nos convoca a un debate ético y filosófico profundo y absolutamente necesario[3]. La propuesta de una ley sobre la IA es un hito que nos invita a reflexionar sobre los límites y potencialidades de esta convivencia tecnológica. En palabras de Kant, esta situación desafía nuestro imperativo categórico, exigiendo que tratemos a la IA no solo como un medio para fines humanos, sino también como una entidad que podría reflejar y ampliar nuestra comprensión de la humanidad.
¿Cómo equilibramos la innovación con el respeto a la privacidad y los derechos humanos? ¿Es posible asegurar que la IA actúe siempre alineada con nuestros valores morales? Nos enfrentamos a dilemas éticos cruciales en una era definida por la convergencia entre la inteligencia artificial y natural. ¿Cómo definimos la autonomía y la identidad en un mundo donde la mente humana y la IA van a estar íntimamente conectadas? Aquí, la reflexión de Searle sobre la “habitación china” se torna relevante, pues cuestiona si la IA puede realmente comprender y experimentar la realidad como lo hacemos los humanos.
Pese a que sea algo que nos parezca inimaginable al día, de hoy, quizás tengamos que plantear una posible conciencia futura de la IA y la redefinición de nuestra propia identidad en un mundo donde la IA se integra de manera íntima con nuestra experiencia humana. La elección de ChatGPT como el primero entre los “científicos no humanos que han contribuido al progreso de la ciencia” por parte de la revista Nature, así como la discusión cada vez más frecuente sobre la posibilidad de conectar el cerebro humano a la IA, plantean preguntas fundamentales sobre lo que significa ser humano. Siempre más, la privacidad se convierte en un tema fundamental, en su connotación primordial de espacio íntimo, ya que es el mismo concepto de intimidad, eso es, de identidad, que puede sufrir un cambio radical.
Epílogo: avanzar con precaución y humildad
La creciente integración de la IA en nuestras vidas plantea una pregunta crucial sobre la identidad. Nuestra autoconciencia se forma en relación con los otros. En un mundo donde “el otro” puede ser una IA avanzada, ¿cómo afectará esto a nuestra propia identidad y autoconciencia? Esta problemática nos lleva a repensar lo que significa ser humano en un contexto donde la IA no solo imita, sino que potencialmente complementa y expande nuestra cognición y experiencia.
Estamos llamados a reflexionar sobre el significado de nuestras emociones, ética y conceptos de justicia en un momento histórico en que ya interactúan con esta tecnología emergente. Es un llamado a reconsiderar no solo nuestros límites como seres humanos en relación con la IA, sino también cómo la IA puede reflejar, ampliar o incluso desafiar nuestra comprensión de la humanidad.
El seminario celebrado en la Universidad Pontificia Comillas y la reciente legislación que se va construyendo sobre la IA no son solo hitos académicos y legales. Ilustran la importancia crítica de abordar las intersecciones éticas y filosóficas entre la tecnología y la humanidad. Estamos en un punto de inflexión donde la IA no solo es una herramienta, sino un reflejo y un posible amplificador de nuestra comprensión humana. La próxima legislación sobre la IA, a través de su enfoque en la privacidad, la transparencia y el respeto a la dignidad humana, proporciona un marco necesario para navegar estos retos.
Al mismo tiempo, el seminario nos recuerda que la discusión sobre la IA no es meramente técnica, sino profundamente humana, tocando aspectos fundamentales de nuestra identidad, ética y existencia en el mundo. Nos encontramos en la encrucijada de un cambio paradigmático, donde nuestras decisiones actuales sobre la IA y su regulación modelarán la esencia misma de nuestra sociedad y humanidad en las décadas venideras.
A medida que avanzamos en esta era de inteligencias híbridas, debemos continuar cuestionando, adaptando y profundizando nuestra comprensión de lo que significa ser humano en un mundo en que nuestra concepción de lo humano hasta el día de hoy quizás tendrá que ser reconfigurado.
Fabio Scalese
Doctor en Filosofía
Facultad de Ciencias Políticas y Sociología
Universidad Pontificia de Salamanca y Fundación Pablo VI
[1] Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI
[2] Continents that have an AI Regulation
[3] Incluso el Papa Francisco está muy preocupado por esta cuestión; de hecho, dedicó su tradicional mensaje con ocasión de la Jornada Mundial de la Paz de este recién iniciado 2024 a este asunto. Ahí podemos leer: “La inteligencia artificial, por tanto, debe ser entendida como una galaxia de realidades distintas y no podemos presumir a priori que su desarrollo aporte una contribución benéfica al futuro de la humanidad y a la paz entre los pueblos. Tal resultado positivo sólo será posible si somos capaces de actuar de forma responsable y de respetar los valores humanos fundamentales como la inclusión, la transparencia, la seguridad, la equidad, la privacidad y la responsabilidad. No basta ni siquiera suponer, de parte de quien proyecta algoritmos y tecnologías digitales, un compromiso de actuar de forma ética y responsable. Es preciso reforzar o, si es necesario, instituir organismos encargados de examinar las cuestiones éticas emergentes y de tutelar los derechos de los que utilizan formas de inteligencia artificial o reciben su influencia” (n. 2).