No es la primera vez que la Santa Sede se pronuncia sobre la inteligencia artificial y sus retos económicos, sociales, éticos y espirituales. Desde hace años, viene advirtiendo de sus múltiples amenazas a la paz, la verdad, la democracia o a la dignidad de la persona, cuando ésta no se usa con criterios morales. Pero también, en cuanto a obra creada por la inteligencia humana, ha hablado de sus múltiples posibilidades para ponerse al servicio de la persona y del bien común.
En esta ocasión, un nuevo documento, fruto de la reflexión mutua entre el Dicasterio para la Doctrina de la Fe y el Dicasterio para la Cultura y la Educación, ve la luz con el título Antiqua et Nova para incidir en el peligro de que el ser humano se convierta en «esclavo de su propia obra».
En primer lugar, por el error de confundir, ya de entrada, la IA con la inteligencia humana. Hay varios párrafos dedicados a eso. Lo considera «engañoso» puesto que no es «una forma artificial de inteligencia», sino «uno de sus productos». Y como cualquier producto del ingenio humano, la IA también puede orientarse hacia «fines positivos o negativos».
En efecto, la inteligencia artificial puede introducir «innovaciones importantes», pero también corre el riesgo de agravar situaciones de discriminación, pobreza, brecha digital y desigualdades sociales, puesto que «la mayor parte del poder sobre las principales aplicaciones de la IA se concentra en manos de unas pocas empresas poderosas».
En sus 117 párrafos, el documento pone de relieve los retos y las oportunidades del desarrollo de la inteligencia artificial (IA) en los ámbitos de la educación, la economía, el trabajo, la salud, las relaciones y la guerra. En este último ámbito, por ejemplo, alerta de cómo el potencial de la IA podría aumentar los recursos bélicos «mucho más allá del alcance del control humano», acelerando «una carrera armamentística desestabilizadora con consecuencias devastadoras para los derechos humanos».
Riesgos bélicos
Hay claros ejemplos de esto en los sistemas de armas autónomas y letales que se están ya utilizando en algunos conflictos bélicos, capaces de «identificar y atacar objetivos sin intervención humana directa». Algo por lo que ya el Papa ha mostrado su preocupación en numerosas ocasiones, pidiendo incluso la prohibición de su uso ya que suponen una amenaza real para «la supervivencia de la humanidad o de regiones enteras». Estas tecnologías «confieren a la guerra un poder destructivo incontrolable, que afecta a muchos civiles inocentes, sin perdonar ni siquiera a los niños», denuncia Antiqua et Nova.
Impacto en las relaciones humanas
También alerta del «aislamiento perjudicial» y el deterioro de las relaciones humanas que genera «la antropomorfización de la IA», como señala el documento, así como los problemas que plantea para el crecimiento de los niños representarla, con fines fraudulentos, como una persona.
También aborda el impacto en el ámbito financiero y económico; en el trabajo, etc. En particular, en el ámbito laboral se señala que, mientras que, por un lado, la IA tiene «potencial» para aumentar las competencias y la productividad, por otro, puede «desespecializar a los trabajadores, someterlos a una vigilancia automatizada y relegarlos a funciones rígidas y repetitivas».
Se dedica un amplio espacio a la cuestión de la sanidad y la educación. Recordando el enorme potencial de diversas aplicaciones en el ámbito médico, se advierte de que si la IA llegara a sustituir la relación médico-paciente, se correría el riesgo de «empeorar» la soledad que suele acompañar a la enfermedad. También se advierte del peligro de reforzar una «medicina para ricos», en la que las personas con medios económicos se benefician de herramientas avanzadas, mientras que otras no tienen acceso ni siquiera a los servicios básicos.
En el ámbito de la educación, reconoce algunas de las mejoras que ofrece, pero pone el foco en el fracaso que puede suponer para el desarrollo del pensamiento crítico, por no hablar de la «información distorsionada o fabricada» y de «noticias falsas» que pueden generar algunos programas.
Fake news y deepfake
El documento alerta también del grave riesgo de que la IA «genere contenidos manipulados e información falsa», que luego se difunden para «engañar o hacer daño» y hace un llamamiento a «tener siempre cuidado de comprobar la veracidad» de lo que se divulga y evitar, en cualquier caso, «compartir palabras e imágenes que degraden al ser humano», excluyendo «lo que alimenta el odio y la intolerancia» o envilece «la intimidad de la sexualidad humana».
Por último, apunta también a otros riesgos: la vulneración de la privacidad y el control, «incluso la propia conciencia»; «la vigilancia digital puede utilizarse para ejercer un control sobre la vida de los creyentes y la expresión de su fe»; el impacto en el entorno; la brecha cada vez más grande entre ricos y pobres y las consecuencias de poner al hombre al servicio de la tecnología y no al revés. De ahí la recomendación: «la IA sólo debe utilizarse como herramienta complementaria de la inteligencia humana y no sustituir su riqueza».
Aquí puedes leer el documento completo:
CONSULTAR EL DOCUMENTO