“La cara es el espejo del alma” reza el refranero popular, en clara alusión a que percibimos que nuestros rasgos faciales son un reflejo de nuestra personalidad, de nuestro carácter, de nuestras vivencias y de nuestro previsible comportamiento. Percepción que no deja de ser una construcción racional organizada en torno a nuestra experiencia y que resulta fundamental en nuestra toma de decisiones.
Es habitualmente referenciada, en esta temática de los rasgos faciales, la anécdota atribuida al presidente de EE.UU. Abraham Lincoln[1], quien ante una sugerencia de un asesor para nombrar un nuevo miembro de su gabinete respondió: “No me gusta su cara”. El asesor argumentó que ése no podía ser el motivo de la exclusión porque el hombre no es responsable de su cara. Lincoln respondió de forma tajante, cortando toda discusión: “A partir de los cuarenta años cada hombre es responsable de su cara”.
La anécdota, sea verdadera o no, no deja de ser interesante en cuanto que pone de manifiesto una realidad, la importancia que damos a la cara y sus rasgos. Es una carta de presentación, posiblemente la primera impresión que recibimos de alguien procede del aspecto de su rostro. Es a donde dirigimos nuestra mirada cuando conocemos a alguien para buscar en esa persona información: ¿puedo confiar en él/ella?, ¿Me resulta atractivo/a?, ¿Está sano/a? Nuestro cerebro procesa muchas de estas informaciones de forma automática y casi sin que lo percibamos.
La cara y su expresión se convierten en un canal de comunicación no verbal de lo más potente. Todos nos fijamos en las reacciones faciales de nuestros interlocutores cuando expresamos nuestras ideas: un ligero arqueo de cejas puede indicar sorpresa, una pequeña mueca en la comisura del labio (media sonrisa) puede indicar desprecio, un parpadeo involuntario puede indicar nerviosismo, la posición de los ojos indica dónde está procesando el cerebro la información (área creativa, área lógica u otras) y por tanto nos puede dar pistas sobre si nuestro interlocutor está mintiendo. La cara, además, es la parte del cuerpo en la que de forma más evidente se refleja el paso de los años. Manteniendo una dieta equilibrada y un razonable ritmo de ejercicio físico está claramente demostrado que se puede mantener un buen tono físico hasta edades avanzadas, pero la cara refleja claramente el paso del tiempo. Y por ello proliferan las cremas antiarrugas y los tratamientos estéticos de todo tipo que nos permitan burlar, al menos aparentemente, el reflejo del paso del tiempo en nuestro rostro. Definitivamente la cara es aceptada como un elemento de nuestra identidad que aporta infinidad de información al entorno social en el que nos movemos.
La cara es también valiosa para la Inteligencia Artificial (IA). Bajo este paraguas se engloban un montón de tecnologías todas ellas expresadas mediante anglicismos y sus acrónimos. Cito algunas: Machine Learning (ML), Big Data (BD), Data Science (DS), Data Mining (DM), Deep Learning (DL), Natural Processing Language (NPL) entre otras muchas. Todas estas tecnologías consisten, básicamente, en herramientas informáticas, programas en lenguajes de programación específicos (R o Phyton los más comunes) que emplean cantidades masivas de datos para hacer predicciones usando fundamentos estadísticos. De manera más intuitiva, la estadística de toda la vida, pero con cantidades masivas de datos. Estos fundamentos estadísticos han sido empleados por el hombre desde tiempos inmemoriales, pero hasta ahora no se disponía de la tecnología para procesar tal cantidad de datos. Y lo más importante, no se disponía de tecnología para adquirir esta información del mundo exterior y almacenarla de forma organizada. Realmente este es el gran salto, la capacidad de adquirir datos de manera estructurada y ordenada.
La irrupción de estas herramientas ha hecho que a este nuevo proceso de transformación se le denomine la cuarta revolución industrial, de ahí que muchas veces se hable de industria 4.0 en relación a la IA y sus aplicaciones incluida la robótica. Se prevé que la productividad de la humanidad se multiplique por 10.000. Estas tecnologías están suponiendo una nueva corriente científica y tecnológica en sí mismas. Hasta hace poco el cálculo diferencial parecía la única herramienta solvente para afrontar los problemas físicos y hacer predicciones y diseños de todo tipo. No obstante, el problema es que había muchos aspectos de la naturaleza a los que no se les podía dar el tratamiento que Leibniz o Newton diseñaron, una ecuación diferencial, y para todos estos problemas la IA parecer ser la solución.
Un ejemplo claro de problema al que no se le puede aplicar una ecuación es el comportamiento del ser humano. Es errático, impredecible, sujeto a emociones, a sensaciones, a pasiones y esto lo hace inabordable con las teorías matemáticas clásicas de cálculo diferencial. No obstante, parece que claramente se puede encajar en las teorías estadísticas clásicas. Así, si afirmo que conozco una mujer que mide 2,54 m es evidente que el lector del artículo afirmará que eso, además de ser sorprendente, es una anomalía estadística. Y si esta afirmación la podemos hacer es porque tenemos en mente un patrón estadístico por el cual podemos decir que en general, una mujer de más de 1,75 a 1,80 m sería alta y de más de 2,00 m sería muy alta. Nuestro cerebro realiza un tratamiento estadístico de la información y llega a estas conclusiones. Para ello no necesita de ninguna ecuación. Lo mismo hace la IA, emplea datos masivos, lo que en el ser humano llamamos experiencia, y con suficiente experiencia (ó datos) llega a la conclusión obvia de que una mujer de 2,54 m de altura es casi imposible dentro de nuestra especie. Y para alcanzar esta conclusión solo es necesario un algoritmo programado en un ordenador.
En este punto cabe hacer un inciso puesto que la IA no implica que los análisis del programa informático sean de carácter humano en el sentido más amplio de la palabra; esto es, además de tener en consideración datos puramente objetivos, el ser humano mezcla en su cerebro un montón de elementos de los cuales desconocemos incluso su ponderación en las decisiones. Por este motivo, los planteamientos de ciencia ficción que aparecen en ocasiones en relación a la IA (“las máquinas acabarán dominándonos”) quedan lejos, al menos de momento. Que una máquina “aprenda” no quiere decir otra cosa que modifica sus predicciones a medida que aumenta su base de datos, pero que “aprenda” no quiere decir que sea consciente de su existencia y alcance la capacidad de tomar decisiones libres como podría ser la de intentar esclavizar al ser humano.
Ese tipo de decisiones implica toda una suerte de procesos cognitivos de los que a estas alturas no tenemos ningún conocimiento totalmente cierto sobre cómo se generan. Si algún día el ser humano llevara los inventos de silicio (ordenadores) a ese punto, podríamos hablar de que hemos alcanzado la Humanidad Artificial (HA)[2], y en ese punto, quizás, sí que cabría plantearse cuestiones éticas de todo tipo. ¿Si el programa es consciente de su existencia significa que tiene alma? ¿Significa que el alma humana no es más que el producto de un desarrollo cognitivo avanzado sin más? ¿Cabría la posibilidad de que la máquina se rebelase contra el ser humano? ¿A esos seres habría que dotarlos de derechos y obligaciones? Por suerte (o por desgracia, todo depende), no estamos en ese punto; estamos en los comienzos de la IA.
Las aplicaciones de la IA son de lo más variadas: gestión de yacimientos petrolíferos, predicción de comportamiento de los accionistas de una compañía, predicción de enfermedades, estudio de patrones de conducta, análisis y reconocimiento facial entre otros. Realmente, ya estamos empleando constantemente la IA cuando usamos el buscador de Google, cuando compramos en Amazon, cuando vemos una película en Netflix. Todas estas empresas usan diferentes tecnologías IA para captar nuestra atención, para acertar con nuestros gustos y para hacer un uso más eficiente de los recursos empresariales y sociales.
En estos momentos trabajo en una compañía que tiene como base tecnológica la IA, y las posibilidades que ofrece son realmente increíbles para la Humanidad. Me resisto a llamar a este proceso la cuarta revolución industrial, puesto que creo que la Humanidad ha entrado en un ritmo de constante revolución, pero la realidad es que puedo dar fe de los avances que se están consiguiendo con estas tecnologías. Veamos un ejemplo. El vicepresidente y director tecnológico de esta compañía, el español David Castiñeira, doctor en ingeniería, durante su Master en Computer Science en Harvard desarrolló una herramienta capaz de predecir el Alzheimer 30 años antes de su manifestación, en base a una serie de pruebas cognitivas y génicas, con unos test relativamente sencillos: la tasa de acierto es del 90% en estos momentos. Esta prueba combinada con un tratamiento precoz sin duda puede dar lugar a una cura para una enfermedad que estos momentos se está convirtiendo realmente en una plaga para el ser humano.
Análisis y reconocimiento facial
En relación con el análisis y reconocimiento facial mediante aplicación de tecnología IA se pretende dar un salto en la comprensión del ser humano y en la predicción de todo tipo de aspectos, incluso enfermedades. Además, siendo la cara un elemento de identidad único se pretende usar como sello biométrico para todo tipo de aplicaciones, firmas de contratos, usos de dispositivos, gestión de dinero, etc. Las posibilidades son inmensas pero como todo salto tecnológico humano lleva consigo la apertura de una discusión sobre derivadas perversas que pueden surgir de una tecnología tan potente como el reconocimiento facial.
Como se ha explicado, todo sistema de IA usa datos masivos estructurados y ordenados, y en el caso del empleo de técnicas de IA en el reconocimiento facial el primer debate en el que debemos centrarnos es en cómo se consiguen esos datos. De forma voluntaria resultaría realmente complejo pedir a miles, tal vez millones de personas que se sometan a sesiones de fotos, videos, de forma periódica y además casen esto con sus inquietudes, perfiles conductuales, estados de salud y de ánimo. Resulta obvio que un ladrón no se va someter voluntariamente a sesiones de fotos y a reconocer que es un ladrón para alimentar una base de datos que pueda acabar con sus fechorías. Esta fase es, dentro de la IA, en general, y más en concreto dentro del reconocimiento facial, la más opaca pero al mismo tiempo la más importante. De nada sirve que el algoritmo esté totalmente diseñado si no tiene datos para inferir conclusiones.
Si se intenta investigar un poco sobre cómo se consiguen datos para reconocimiento facial se encuentran multitud de paquetes de software o cámaras con paquetes integrados que explican que, si tomas una foto a una persona, el software puede reconocerlo en posteriores fotos o videos. Lógicamente este planteamiento no entraña demasiados problemas puesto que el que se expone a la foto lo hace voluntariamente. Puede que condicionado por su organización, pero en todo caso por voluntad propia. El problema radica en cómo se consiguen los datos para analizar el comportamiento general o la detección de enfermedades. Es evidente que de forma involuntaria por parte de todos nosotros. Volviendo al ejemplo del ladrón, ningún ladrón querrá ser catalogado como tal, pero una persona enferma puede no querer que su sufrimiento por enfermedad forme parte de una base de datos de fotos y videos de caras. Sin embargo, estas bases de datos están creciendo de manera brutal. Se están alimentando y se alimentarán de nuestras videoconferencias, de nuestras imágenes escaneadas, de nuestras fotos compartidas en la nube y de un sinfín de utilidades tecnológica que empleamos a diario. Todo ello conlleva una violación de la intimidad humana.
En esta llamada revolución 4.0 nos estamos encontrando que nuestra intimidad parece haberse convertido en la moneda de cambio para conseguir el múltiplo x 10.000 de progreso de la Humanidad. El robo de la intimidad ya se ha puesto de la mesa en más de una ocasión. Por ejemplo, cuando el pánico a las acciones terroristas nos hizo ceder nuestra intimidad a la infinidad de sistemas de cámaras que están grabándonos todo el día (los sistemas CCTV—Circuito Cerrado de TV). En este caso el precio que había que pagar parecía (y parece) poco para el riesgo (la muerte en un atentado). En el caso del reconocimiento facial la recompensa no es tan patente y la vulneración de la intimidad sí es claramente más severa.
No es suficiente con tener una foto o video para hacer reconocimiento facial, hace falta lo que en ciencia de datos se conoce como “feature engineering”, es decir, determinar un montón de atributos que deben de ser asociados a esa imagen facial y codificarlos para que los algoritmos puedan usarlos. Es un asalto en toda regla a los rincones y las esquinas de nuestra personalidad y de nuestra vida y el problema es que no se nos está pidiendo permiso. Cada vez que nos registramos en diferentes servicios digitales siempre firmamos y aceptamos numerosas condiciones entre las que muchas veces está la cesión de nuestra información. Incluso a veces, de forma indirecta, el uso de un servicio sin registro permite conocer todo tipo de elementos de nuestra privacidad.
Ahora bien, frente a este asalto a nuestra intimidad, la recompensa “no tan evidente” puede ser también increíblemente potente. Imaginemos que en el futuro, simplemente con una foto de nuestra cara, se puedan determinar un montón de enfermedades y patologías, de forma inmediata, incluso posiblemente sin acudir a una consulta médica. La potencia de este premio hace plantearse si pasar por alto el “asalto al tren de nuestra intimidad”. Si a cambio nuestra esperanza y calidad de vida mejorarán de forma espectacular. Luego es inequívoco que un primer problema de orden ético es, sin lugar a dudas, la cesión de nuestra intimidad a cambio de mejorar mejora de vida en general. ¿Compensa? ¿La aceptamos? En el caso del terrorismo la respuesta ha sido clara, hemos aceptado. Qué pasará con el reconocimiento facial es algo que veremos en los próximos años, pero desde luego suscitará un gran debate la total privación de intimidad que se nos viene encima.
En todo caso, aun siendo la determinación de enfermedades mediante reconocimiento facial una de las más altas aspiraciones de esta tecnología, incluso en este caso podemos encontrar vertientes negativas a la misma, más allá de la vulneración de intimidad para alimentar a los algoritmos de IA. Imaginemos que estas tecnologías comienzan a usarse en los procesos de selección de personal. Y el algoritmo alcanza un punto tan avanzado que es capaz de reconocer VIH en una persona solo por sus rasgos faciales. El estigma que acompaña a esta enfermedad puede hacer que en el proceso de selección de personal en una empresa, los candidatos, sin que lo sepan, sean sometidos a reconocimiento facial y eliminados de oportunidades laborales por padecer esta enfermedad u otra siendo el candidato totalmente apto para el puesto. Es evidente la perversión que puede alcanzar el uso de este sistema diseñado para mejora la vida del ser humano y es que puede acabar siendo un sistema discriminador.
Otra aplicación de reconocimiento facial es la búsqueda de delincuentes de todo tipo. No se trata solo de buscar al que haya perpetrado un delito de algún tipo sino de detectar potenciales delincuentes. Esta herramienta a priori no parece mala, potencialmente podría ayudarnos a poner en cuarentena a un montón de individuos antes de cometer una fechoría. Pero también estaría condicionando la vida de esa gente y en algunos casos sin motivo porque aún no ha delinquido.
Si hay estudios que indican que el nombre llega a condicionar el aspecto de nuestro rostro, qué no pasará con el rostro de un individuo si se cría desde pequeño en una familia, barrio y ciudad desfavorecidos y conflictivos. En este caso, su rostro claramente reflejará lo que ha vivido, y un algoritmo de reconocimiento facial que lo catalogue como “peligroso” lo condenará a un entorno social malo, poniendo al resto de la sociedad “a salvo”. Pero la realidad es que al individuo lo estamos marginando antes de que haya hecho nada. Es más, es posible que el entorno al que haya sido destinado marque más aun los rasgos de su cara hacia el perfil de un criminal y, dado el entorno en el que está, acabe realmente siendo un delincuente, la llamada profecía autocumplida, expresión acuñada por el sociólogo Robert K. Merton: “Como determinamos que ese individuo iba a ser un criminal y lo tratamos como tal por sus rasgos faciales, finalmente acabó siéndolo”[3].
De este fenómeno perverso de la IA advierte Cathy O’Neil[4]. Esta doctora en Matemáticas por Harvard y postdoc del MIT señala que los algoritmos de IA en general pueden alimentar el cumplimiento de sus propios axiomas. En el fondo generando un sistema de castas determinado por un sistema artificial pero con consecuencias tan malignas como las castas diseñadas por los humanos, en las que si uno nace en el lugar equivocado (país, estrato social o familia) no será capaz de salir de esa espiral de decadencia en toda su vida. Luego la privación de libertad y la pérdida de oportunidades son una consecuencia obvia de las aplicaciones de reconocimiento facial empleadas de manera descontrolada.
Privación de libertad y privación de intimidad: riesgos inherentes al advenimiento de la IA aplicada al reconocimiento facial. También se ha de indicar que esta problemática surge de forma general en las aplicaciones de IA. Recientemente el Dr. Castiñeira me comentaba que durante sus estudios de Computer Science en Harvard, hace un par de años, se estaban discutiendo ya las implicaciones éticas y legales de implantar de forma masiva sistemas de IA en vehículos, lo que se conoce como coche autónomo. Una de las principales causas de muerte prematura en USA son los accidentes de tráfico (en torno a 40.000 personas muertas por accidentes de tráfico en 2018). La aplicación del coche autónomo reduciría posiblemente el número de muertos a decenas/año. El salto es espectacular, pero la discusión ética también. ¿Qué debe hacer un vehículo si tiene que decidir entre atropellar a un anciano en un paso de peatones o lanzar el coche por un puente y matar a un adolescente que iba dentro del vehículo? ¿Quién decide qué pesa más? Legalmente, ¿quién se hace responsable de la decisión del algoritmo? ¿Podemos hacernos unas preguntas análogas con los algoritmos de reconocimiento facial?
Si el algoritmo de reconocimiento facial determina que una persona tiene muy pocas posibilidades de sobrevivir a un determinado tratamiento y es mejor que los recursos sean empleados en una persona que tiene más probabilidades ¿debemos dejar que la máquina escoja? ¿Qué dejamos que escoja? ¿Quién asume la responsabilidad legal de la decisión? Y si un algoritmo de reconocimiento facial determina que una persona totalmente solvente hoy en día, con todas sus cuentas saneadas, una vida organizada económicamente, es un moroso potencial en 15 años ¿se le privará de un préstamo hipotecario a 20 años? ¿Resulta aceptable tal tipo de decisión?
La respuesta a estas cuestiones no es sencilla y la discusión ha llegado para quedarse. Mi difunto padre, Manuel Soage Loira, directivo de banca comercial, trabajó muchos años de analista de inversiones y para él resultaba fundamental no solo el análisis de los balances de una empresa o de las cuentas de una persona que solicitaba un préstamo. Quería conocerlo y mirarle a la cara, decía que le resultaba fundamental conocer los seres humanos que estaban detrás de la operación financiera que se le planteaba. En determinado momento de su carrera profesional ascendió y esta operativa le resultaba inviable. Pensó un tiempo cómo podía poner cara a sus análisis de operaciones financieras hasta que llegó a la conclusión de que la forma más cómoda de llegar a tener una visión de esta persona era pedir una fotocopia en color del DNI del representante de la empresa o del solicitante del préstamo. Para él resultaba fundamental ver la cara de la persona a la que iba a financiar. Sospecho, conociendo como era mi padre, que no les pedía la fotocopia del DNI con el objetivo de saber por su intuición si esa persona iba a pagar o no sus deudas, sino que creo que lo que buscaba era ponerle rostro a los números, ponerle humanidad a los extractos y balances. Aquel joven directivo de Caja Pontevedra que era mi padre le ponía rostro a la información financiera, a los fríos números, necesitaba saber quién era el ser humano detrás de esos datos. Y, sin embargo, la IA aplicada al reconocimiento facial hace exactamente el camino contrario: del rostro extrae datos, información y números, dejando de lado la humanidad como elemento esencial del individuo.
Conviene, pues, analizar, discutir, razonar y dialogar para que la cara no se convierta en un soporte físico de información del individuo, en un mero artefacto, en un elemento puramente instrumental. Además, no debemos olvidar todas las dimensiones del individuo, incluida la espiritual, de lo contrario podríamos pensar que los algoritmos de IA podrían llegar a los elementos más íntimos del ser humano, más intangibles como es la propia alma. Debemos descartar que la “cara se convierta en el hardware del alma”, puesto que los elementos más esenciales y básicos del ser humano, su propia humanidad, no podrán ser escudriñados por un algoritmo de IA aplicado a un rostro por muy potente que este algoritmo sea.
Andrés Soage Quintáns
Ingeniero de Caminos, Canales y Puertos
Investigador de la Universidad de A Coruña
Responsable de Desarrollo de Negocio para Europa de Quatum Reservoir Impact
PARA SABER MÁS
Nick Bostrom, Superinteligencia: caminos, peligros, estrategias. Teell Editorial 2016.
Stephen Cave, and Seán S ÓhÉigeartaigh, “An AI Race for Strategic Advantage: Rhetoric and Risks”, February 2018, http://www.aies-conference.com/wp-content/papers/main/AIES_2018_paper_163.pdf
Isabel Valera, Adish Singla, and Manuel Gómez-Rodríguez, “Enhancing the Accuracy and Fairness of Human Decision Making”, May 2018, https://arxiv.org/pdf/1805.10318.pdf
NOTA
Quiero agradecer al Dr. David Castiñeira y al Dr. Jaime Fe sus valiosos comentarios y sugerencias durante la elaboración de este artículo.
[1] https://www.lavanguardia.com/estilos-de-vida/20140214/54401052684/la-cara-espejo-del-alma.html
[2] Alejandro Pascual et al., Humanidad Artificial. Editorial Planeta Mercurio, 2014.
[3] Robert K. Merton, Teoría Social y Estructura Social. Editorial Fondo de Cultura Económica. México 2003.
[4] Cathy O’Neil, Armas de destrucción matemática: cómo el big data aumenta la desigualdad y amenaza la democracia. Editorial Capitán Swing. Madrid 2018.