El desarrollo de los ordenadores siempre ha estado acompañado por la posibilidad de que pudiera desarrollarse una forma de inteligencia de manera artificial. Ya a mediados del siglo XIX, Ada Lovelace —considerada la primera programadora— imaginó que la máquina analítica de Charles Babbage podía ir más allá del cálculo numérico y llegar a manipular símbolos de forma general. Con ello anticipaba, de forma embrionaria, la idea de una máquina que pudiera "pensar". Un siglo más tarde, Alan Turing, pionero en la construcción de los primeros ordenadores de propósito general, se preguntaría explícitamente si esas nuevas máquinas podrían llegar a ser inteligentes, e incluso propuso un experimento —el conocido “Test de Turing”— para evaluar dicha capacidad (Turing, 1950).
La mera posibilidad de que las máquinas pudieran estar dotadas de algún tipo de inteligencia ha alimentado desde entonces la imaginación de escritores, cineastas y periodistas. Películas como Terminator o Ex Machina han explorado escenarios en los que sistemas artificiales adquieren autonomía, consciencia o incluso voluntad propia. Esos relatos han calado en la cultura popular, donde no es extraño encontrar titulares que atribuyen propiedades antropomórficas a sistemas de IA: “La IA predice...”, “La IA decide...”, “La IA se rebela...”, como si hubiera una entidad consciente dentro de la máquina. Esta forma de hablar, aunque metafórica, refleja tanto el asombro como la incertidumbre que despierta esta tecnología.
Más allá de la ficción, lo cierto es que la inteligencia artificial posee un enorme potencial transformador. Bien orientada, puede contribuir a mejorar la eficiencia energética, ampliar el acceso a servicios educativos y sanitarios, acelerar la investigación científica y liberar a las personas de tareas tediosas o peligrosas. Sin embargo, como toda tecnología poderosa, la IA también entraña riesgos y dilemas éticos, desde la pérdida de control sobre decisiones automatizadas hasta la concentración del poder tecnológico en pocas manos, pasando por sesgos algorítmicos o impactos ambientales. Como ha ocurrido con otras revoluciones técnicas a lo largo de la historia, los beneficios no están garantizados: dependen de cómo decidamos diseñar, regular y aplicar esta herramienta.
Por eso es importante analizar no solo lo que la IA puede llegar a hacer, sino también cómo puede afectar al futuro de la sociedad. Porque la IA, lejos de ser una herramienta neutral, forma parte de complejas redes sociotécnicas donde actores humanos y no humanos co-construyen realidades sociales, políticas y económicas. En este texto se presentan algunos de los desafíos más relevantes que podrían intensificarse en los próximos años si no se abordan de forma crítica y colectiva.
José Luis Calvo
Director de IA y cofundador de Diverger