Una tecnología que dota a las máquinas de la capacidad de realizar las tareas asignadas a los seres humanos, pero sin filtros éticos o morales, o capacidad para distinguir el bien del mal. De estas nuevas amenazas da buena cuenta el coronel del Ejército del Aire Ángel Gómez de Ágreda, experto en geoestrategia y ciberseguridad
La Tercera Guerra Mundial será tecnológica. Lo dijo Elon Musk, ejecutivo de Tesla, ya en septiembre de 2017, prediciendo quizá lo que nos íbamos a encontrar en los años sucesivos. Las guerras comerciales y tecnológicas entre Estados Unidos y China, los conflictos geoestratégicos o las crisis de los sistemas democráticos europeos parecen situarnos en medio de un polvorín a punto de estallar. La globalización de la política, la economía y la información nos hace vivir permanentemente con el riesgo de una guerra de consecuencias apocalípticas, en la que jugará un especial papel la inteligencia artificial. Una tecnología que dota a las máquinas de la capacidad de realizar las tareas asignadas a los seres humanos, pero sin filtros éticos o morales, o capacidad para distinguir el bien del mal. De estas nuevas amenazas da buena cuenta el coronel del Ejército del Aire Ángel Gómez de Ágreda, experto en geoestrategia y ciberseguridad, en su libro Mundo Orwell, manual de supervivencia para un mundo hiperconectado, una reflexión sobre la influencia de las tecnologías en las sociedades y los riesgos que con ellas se generan. De Ágreda es miembro del comité de expertos del Seminario Permanente sobre la Huella Digital que ha puesto en marcha la Fundación Pablo VI.
¿Podría decirse que el desarrollo de la inteligencia artificial sería la causa de una apocalíptica Tercera Guerra Mundial?
La inteligencia artificial estará presente entre las causas y entre las armas que se emplearán en la próxima guerra, sin duda. Entre las causas porque la carrera por dominarla ya se ha convertido en una de las competiciones más importantes de todos los tiempos, ya sea en el terreno industrial o en el militar. La ventaja competitiva que proporcionan los algoritmos, la acumulación y capacidad para cruzar datos de forma masiva, y la automatización es comparable a la aparición del hierro en las armas hace miles de años. Decía Einstein que no sabía cómo sería la Tercera Guerra Mundial, pero que la cuarta sería con palos y con piedras tras un apocalipsis nuclear. Mi opinión es que la tercera será ya con palos y piedras cuando ambos bandos hayan acabado con la capacidad digital del adversario. Sin internet, ahora mismo, volveríamos a las cavernas.
Cuando hablamos de guerra tecnológica, muchos pensamos inmediatamente en las armas autónomas. Unas armas que son capaces de seleccionar objetivos y apuntar contra ellos sin necesidad de intervención humana. ¿Están usándose ya? ¿Qué diferencia hay entre ellas y el dron que mató a Soleimani?
Sí, ya hay más de 130 sistemas de armas autónomos en funcionamiento. No se trata de terminators como los de las películas, sino de sistemas de defensa aérea contra misiles, por ejemplo. Al contrario que los drones armados, no están pilotados a distancia por ningún humano, sino que están diseñados para seguir funcionando cuando la señal de guiado ha sido degradada o cuando se quiere ser tan discreto que no se emita ninguna. Evidentemente, cuando programamos un arma para que cumpla una misión deberíamos asumir también las consecuencias y la responsabilidad de que lo haga, y de todos los imprevistos que puedan surgir. Algunos comparan esta situación con las minas antipersona, que se plantan hoy con un objetivo preciso pero que explotan dentro de unos años con unos efectos completamente indeseados e indeseables.
En agosto de 2019 un grupo de expertos en inteligencia artificial se unió para pedir a la ONU la prohibición de las armas robóticas o autónomas. ¿Por qué son tan peligrosas si, precisamente, la inteligencia artificial podría suponer una mayor precisión y menos daños colaterales?
Ese es el argumento a favor que emplean los principales fabricantes de armas autónomas: su mayor precisión y capacidad de soportar el estrés o el cansancio y, por lo tanto, de discriminar mejor. Aunque pudiéramos estar de acuerdo con esa premisa (que supone un nivel muy avanzado de inteligencia artificial), la dignidad de las personas se ve anulada por una predeterminación del resultado. No parece ético dejar la decisión de matar en manos de un programa informático sin sentimientos ni empatía. Claro que, también es cierto, el argumento de la dignidad ya se empleaba para prohibir el uso de las ballestas en el segundo Concilio de Letrán, en el siglo XII. Obviamente, con ningún resultado.
¿Hay algún mecanismo de control en este momento para regular legalmente este tipo de armas? ¿Y moralmente?
No lo hay. Hay un grupo de trabajo de Naciones Unidas que se reúne dos veces al año desde hace tiempo para intentar llegar a un acuerdo vinculante. De momento, siguen enrocados en las definiciones y evitando tomar decisiones para limitar el desarrollo de estos sistemas. Pero la Historia nos enseña que todas las armas que se han desarrollado alguna vez han terminado por usarse.
Moralmente puede haber algún reparo inicial, pero, teniendo en cuenta las ventajas que ofrecen y los argumentos de su mayor precisión y capacidad de discriminación, creo que podemos confiar muy poco en su utilidad práctica. La prohibición de este tipo de armamento no es el debate que hay que buscar, es la regulación y las limitaciones en su uso el que resulta realista.
Más allá de una hipotética guerra mundial real y visible, en su libro Mundo Orwell habla de que estamos ya inmersos en una guerra invisible. ¿Por qué?
En estos momentos somos las víctimas de la guerra, como siempre, pero también somos el arma y el campo de batalla porque esta no se libra tanto en el frente como dentro de nosotros, en la gente. No la vemos porque la tenemos dentro, porque nos afecta a los sentimientos y a la forma que tenemos de entender el mundo. Es una guerra de desinformación o, mejor, de conformación de la realidad. Es una guerra continua y, por lo tanto, termina por volverse indistinguible de la paz, que cambia nuestra voluntad sin necesidad de usar de violencia. La guerra es una confrontación de voluntades y, por lo tanto, cuando alteran la nuestra, se puede considerar un acto de guerra.
¿Quiénes son los principales actores en esa ciberguerra? ¿Quiénes los atacantes y quiénes las víctimas?
Todos lo somos. Obviamente, en distinto grado. Los estados y algunos grupos que controlan los datos (o los compran) son los que principalmente configuran el panorama. Pero cada uno de nosotros, al difundir noticias falsas, al aceptar sin rechistar la desinformación, al asumir la comodidad como un valor más importante que la seguridad o la libertad (algo que hacemos a diario) jugamos nuestro papel también en la trama.
En el mundo actual solo sirve el dominio del relato. Las audiencias están tan segmentadas que han perdido capacidad para debatir, incluso han perdido un lenguaje común. Tener una audiencia cautiva pendiente de uno ya es una victoria. Las víctimas somos también todos, sobre todo porque nuestro sistema de valores y de gobernanza es incompatible con la nueva realidad.
Miembros de la Policía de Irak usan un dron durante una operación contra el Estado Islámico
en Qayyara, al sur de Mosul. Foto: Reuters/Alaa Al-Marjani
¿Qué lugar ocupa Europa en esta lucha por la hegemonía o el control de la tecnología más avanzada? Muchos ven en esta guerra un intento por desestabilizar las estructuras democráticas occidentales y, sobre todo, europeas. ¿Podría ponerme algún ejemplo?
Europa está en una posición marginal. Seguimos siendo el referente en cuanto a regulación y el modelo ético que emular (que no que seguir), pero nuestra capacidad para actuar es muy limitada. Proveemos de talento a buena parte de la industria de otros países, de reglas y principios a todo el mundo, pero más allá de eso, nuestra industria ha sido canibalizada por las potencias extraeuropeas.
Una Europa unida –si eso es posible, más allá de deseable– tiene una enorme capacidad de proponer y de contribuir activamente. Una Europa dividida y preocupada de problemas internos, de rivalidades y disputas menores, de luchas por los despojos o de modelos productivos obsoletos supone solo un mercado que explotar.
Por eso, el gran reto de Europa es cómo ser relevante en el mundo sin renunciar a sus valores, que son claramente distintos.
¿Está España preparada para una ciberguerra?
España está preocupada por la ciberguerra y está trabajando para estar al día en el combate en ese entorno. Uno nunca está preparado del todo, pero tenemos excelentes profesionales –pocos– que están haciendo las tres cosas que son necesarias para estar ahí: concienciar y formar al resto de las Fuerzas Armadas en un nuevo modelo de utilización de lo ciber; colaborar y aprender con nuestros aliados y con la industria, e investigar para desarrollar capacidades propias que nos permitan ser razonablemente autónomos.
¿Qué papel juegan las redes sociales en esta guerra tecnológica? ¿Somos los individuos conscientes del control al que están sometidos nuestros datos?
No somos conscientes y, por lo tanto, tenemos una falsa sensación de seguridad que no se corresponde con la realidad. Estamos regalando nuestros datos como si no fueran una parte integrante de nuestro yo digital. Las redes sociales y las plataformas se han convertido en el vehículo que utilizamos para movernos por internet cada vez más. Intermedian entre la ingente cantidad de información disponible y nuestro deseo de llegar a contenidos de forma cómoda y agradable. Por eso, terminamos por ver la realidad a través del cristal o del filtro que ellas nos ponen delante. Modelan o deforman la realidad que vemos y, por lo tanto, condicionan nuestra libertad. Hace falta mucha concienciación en este sentido.
Puesto que los códigos éticos de China y Rusia son muy diferentes a los del resto de Europa o EE. UU., ¿quién debería liderar el control del uso de la tecnología? ¿Es posible establecer un mecanismo regulador global?
Internet tiene actualmente una tendencia clara hacia la fragmentación. Cada país quiere extender su soberanía al espacio digital y, por lo tanto, no es previsible que, a corto plazo, se pueda llegar a una regulación global. Los códigos éticos esconden, muchas veces, la falta de voluntad de regular jurídicamente. Se convierten en meras declaraciones propagandísticas.
Creo que solo el aumento de la conciencia social sobre el valor de los datos permitirá que, a través de la misma sociedad civil, podamos presionar para que estados y empresas tengan en cuenta a los ciudadanos individuales.
Sandra Várez González
Directora de Comunicación de la Fundación Pablo VI
Publicado en el semanario Alfa y Omega
6 de febrero de 2020