Inteligencia artificial versus inteligencia humana: ¿hacia dónde va el futuro?

Inteligencia artificial versus inteligencia humana: ¿hacia d...

22 minutos de lectura
Foro de Humanismo Tecnológico

Foto: ITU Pictures/Flickr

Escuchar el podcast en Spotify | Apple Podcasts | Google Podcasts

¿Cómo afrontaremos el uso de la inteligencia artificial en los próximos años? ¿Cómo será el futuro de la IA? En este podcast, José María Lassalle, director del Foro de Humanismo Tecnológico de Esade, y Ramón López de Mántaras, director del Instituto de Investigación de Inteligencia Artificial del CSIC en Barcelona, debaten sobre las últimas tendencias en inteligencia artificial, el papel de las máquinas en la toma de decisiones y por qué la inteligencia artificial no sustituirá al ser humano.

Según los expertos, el temor a la implantación de una superinteligencia que sustituya a la humana nos distrae de otros problemas reales derivados de la inteligencia artificial, como las posibles amenazas a la privacidad, la vigilancia masiva de la ciudadanía, la regulación del reconocimiento facial o las armas autónomas letales.

TRANSCRIPCIÓN

José María Lassalle: Bienvenidos de nuevo a esta sección de podcasts del Foro de Humanismo Tecnológico de Esade. Hoy vamos a reflexionar sobre la inteligencia artificial, uno de esos temas recurrentes que nos han acompañado de una manera muy determinante durante toda la gestión de la pandemia y que se esgrimen como uno de los instrumentos que las políticas públicas y la nueva economía va a tener que desarrollar de manera intensa. Para ello, tenemos a uno de los máximos expertos españoles e internacionales en inteligencia artificial, Ramón López de Mántaras, fundador y director del Instituto de Investigación en Inteligencia Artificial del CSIC en Barcelona y miembro del Consejo Asesor del Foro de Humanismo Tecnológico de Esade. Bienvenido, Ramón, es un placer tenerle hoy con nosotros.

Ramón López de Mántaras: Muchas gracias.

José María Lassalle: ¿Qué podemos decir de la inteligencia artificial, un tema tan recurrente sobre el que se habla habitualmente? ¿Es una inteligencia humana o es una inteligencia que se asemeja a la humana? Explíquenoslo, por favor, porque yo creo que es una de esas dudas metódicas que están en el ambiente.

Ramón López de Mántaras: Muchas gracias. El problema con la inteligencia artificial es que la estamos antropomorfizando demasiado, es decir, hay una confusión excesiva acerca de lo que realmente es. Ello, posiblemente tenga que ver con la denominación misma de inteligencia artificial, pero es un nombre que ha cuajado y ahora sería absurdo replanteárselo y proponer otro. La llamaron así en 1956, quienes "fundaron" la inteligencia artificial moderna, la que se realiza mediante ordenadores digitales, aunque la idea de automatizar el razonamiento, la inteligencia y demás aspectos relacionados con el ser humano arranca de muchos siglos antes.

De lo que estamos hablando ahora es de la inteligencia artificial entendida como un conjunto de tecnologías –no es una cosa monolítica– que permiten emular, a través de las máquinas y algoritmos, algún tipo de comportamiento, como llevar a cabo tareas, resolver problemas o ayudar en la toma de decisiones que requieren "inteligencia", aunque aún no sepamos muy bien qué es eso de la inteligencia. En el ámbito de la ciencia y de la psicología cognitiva, ni los filósofos ni los neurocientíficos tienen muy claro qué es la inteligencia.

En la actualidad, la inteligencia artificial es una realidad capaz de emular aspectos y tareas muy específicos

En cierta ocasión, alguien dijo: "Yo no soy capaz de definir la inteligencia, pero soy capaz de reconocerla cuando la tengo delante". Es pues, un tipo de fenómeno que no es fácil de definir, pero ello no tiene que ser una dificultad mayor para que algo se lleve a cabo o se desarrolle. Por ejemplo, en biología, tampoco existe un consenso absoluto, claro y universal sobre qué es la vida y, sin embargo, la biología sigue su curso. Pues con la inteligencia artificial ocurre un poco lo mismo.

Para terminar esta primera intervención, voy a añadir que, en estos momentos, la inteligencia artificial es una realidad capaz de emular aspectos y tareas muy específicos: la narrow artificial intelligence que nos permite programar o entrenar una máquina mediante algoritmos de aprendizaje para que lleve a cabo una tarea única, específica, muy bien delimitada y contextualizada, y nada más. No es generalista, eso es, no tiene el nivel de generalidad de la inteligencia humana, y esta sería ya una primera diferencia importante entre la inteligencia artificial y la humana.

José María Lassalle: Desde luego, esta introducción ha sido realmente sugerente y en ella ha planteado muchas cuestiones que ahora me gustaría repasar, relacionándolas con un trabajo que ha publicado, en el que analiza críticamente la aproximación que hacemos habitualmente a la inteligencia artificial, en medio del éxito que se asocia a su desarrollo y de la urgencia de su implementación para ayudar en la toma de decisiones, en un contexto tan difícil como el de la reconstrucción de nuestras sociedades tras el duro impacto de la pandemia.

Lo ha titulado El traje nuevo de la inteligencia artificial, y en él ofrece una revisión crítica de muchos de los logros que se ha planteado la inteligencia artificial en los últimos años. ¿En qué consiste esta revisión crítica? ¿Cuáles son los aspectos que deberíamos tener sobre la mesa a la hora de enjuiciar de forma correcta cómo vamos a afrontar el uso de la inteligencia artificial en los próximos años?

Ramón López de Mántaras: El artículo a que hace referencia saldrá publicado este julio en la revista de divulgación Investigación y Ciencia. Su objetivo es analizar la situación y ver hasta qué punto son ciertas algunas afirmaciones que aparecen incluso en la prensa más seria, como por ejemplo la revista Wired o MIT Technology Review, que han publicado titulares como estos: "Google ya traduce de inglés a español casi tan bien como un experto humano" (MIT Technology Review, octubre de 2016) o "IBM Watson is now fluent in nine languages (and counting)” (Wired, octubre de 2016).

La tendencia a especular demasiado acerca de la inteligencia artificial es un problema para quienes trabajamos en este campo porque se crean expectativas desmesuradas que no se están cumpliendo

Uno lee estas cosas y dice: "Vamos a ver, ¿es realmente así o son exageraciones?" Y, obviamente, cuando uno rasca e investiga, y ve el origen de estas afirmaciones y por qué aparecen, se da cuenta de que son titulares absolutamente incorrectos, y en mi artículo explico por qué.

Esta tendencia a proyectar y especular demasiado acerca de lo que es la inteligencia artificial, es un problema para quienes trabajamos en este campo porque se están creando unas expectativas desmesuradas que no se están cumpliendo. Por ejemplo, no hace mucho, se hacían predicciones sobre la conducción autónoma al máximo nivel (nivel 5), que ahora ya se están matizando. Y, ante estas decepciones, nos podemos encontrar otra vez en un invierno de la inteligencia artificial, como ya ocurrió en los años ochenta, debido también a unas expectativas desmesuradas.

En mi artículo, hablo de todo ello y lo argumento con ejemplos concretos; enumero y aporto algunos detalles de cómo funcionan las nuevas tendencias en inteligencia artificial, basadas en el denominado deep learning o aprendizaje profundo, y muestro sus enormes limitaciones y diferencias con el aprendizaje humano. Hago afirmaciones aparentemente tan rotundas o tan sorprendentes como que, en realidad, las máquinas no aprenden absolutamente nada.

Y es cierto: no aprenden absolutamente nada, en el sentido de lo que entendemos las personas por aprender. Cuando aprendemos algo, lo relacionamos con nuestros conocimientos previos, lo contextualizamos; hay una cantidad de conocimientos ya implícitos previos, que es lo que permite a la inteligencia humana de verdad aprender de forma incremental y continua a lo largo de toda su vida.

En realidad, las máquinas no aprenden absolutamente nada

Nos permite generalizar y hacer transfer learning ("aprendizaje por transferencia"), de modo que, cuando nos enfrentamos a un problema nuevo pero que se asemeja a situaciones o problemas que ya hemos resuelto antes, podemos reaprovechar lo que aprendimos al resolver el problema similar o parecido a este, transfiriendo aquellos conocimientos o parte de ellos –de ahí que se llame transfer learning– adaptados, si es preciso, al nuevo problema que debemos resolver. Y así lo resolvemos con más eficiencia, sin tener que partir de cero cada vez. El aprendizaje artificial es incapaz de hacer esto; el aprendizaje automático no tiene ni la más mínima idea de cómo se podría hacer con una máquina. Son ejemplos extraídos de mi artículo que ilustran bien las diferencias con el aprendizaje humano.

Y el núcleo de la cuestión, el gran problema, es lo que acabo de mencionar hace un momento: el conocimiento de sentido común, eso es, razonar a partir de los conocimientos de sentido común. Esta es la pared contra la cual nos estamos dando cabezazos desde los años cincuenta, desde que se crea la inteligencia artificial. Ya en 1956 se hablaba de la importancia de este "conocimiento de sentido común" para el desarrollo de una inteligencia artificial que fuera inteligente de verdad. Y últimamente se está evidenciando aún más la necesidad de este conocimiento de sentido común, porque los sistemas basados en el deep learning y sus limitaciones están relacionados con este aspecto.

Daniel Dennett habla de competence without comprehension, eso es, habilidades sin comprensión, que es lo que tenemos en realidad en la inteligencia artificial. Pero no habilidades en plural, sino específicas: se programa o entrena el sistema de inteligencia artificial para que tenga una única habilidad resolviendo una única tarea muy concreta, sin comprensión, como ocurre, por ejemplo, con Google Translate y otros traductores de idiomas, en que no hay comprensión alguna en absoluto del lenguaje. En mi artículo también doy ejemplos de por qué el conocimiento de sentido común es imprescindible para comprender de verdad lo que estamos viendo; es algo que nosotros hacemos con mucha facilidad y sin darnos cuenta, incluso inconscientemente, pero no tenemos la más mínima idea de cómo hacerlo en la máquina.

Las expectativas desmesuradas en materia de IA podrían derivar en un nuevo invierno de la inteligencia artificial

El futuro de la inteligencia artificial tiene que ir por ahí: ha de abordar ese problema, y ahora disponemos de una herramienta potente, como son los modelos de razonamiento causal, propuestos por Judea Pearl, uno de los grandes de la inteligencia artificial, Premio Turing 2001. Pearl ha aportado mucho a la inteligencia artificial; en particular, nos muestra maneras y caminos matemáticamente muy sólidos y muy bien fundamentados sobre cómo modelizar el razonamiento causal y el aprendizaje de las relaciones causales, porque lo que detecta el sistema actual de la inteligencia artificial son correlaciones, pero no puede saber si es el canto del gallo que hace que amanezca o si, por el contrario, es el hecho de que amanezca lo que provoca el canto del gallo, eso es, cuál es la causa y cuál es el efecto.

Los sistemas actuales son incapaces de distinguir estas cosas porque solo detectan correlaciones, por lo cual resulta clave poder aprender las relaciones causales para lograr dotar las máquinas del conocimiento de sentido común.

José María Lassalle: ¡Fantástico! De todos modos, este desarrollo que menciona para la inteligencia artificial y estos modelos de razonamiento causal que pueden estar detrás de la generación del tan ansiado sentido común plantean la siguiente cuestión: si la inteligencia artificial se transforma en eso que se ha denominado inteligencia artificial general, ¿podría sustituir realmente la inteligencia humana?

Hasta el momento, la inteligencia artificial suscita interés porque, mediante su capacidad de análisis de datos y de construcción de evidencias, ayuda al ser humano a tomar con más seguridad decisiones que le eviten estar expuesto a errores, a fallos. Esto puede ser un elemento extraordinariamente útil en la gestión de la pandemia o en los procesos de reconstrucción que tendrán que afrontar las democracias, desde el punto de vista político, y en cierto modo es el objetivo que está detrás de ella.

Pero, ¿usted cree que podría plantearse realmente una sustitución de la capacidad de decisión humana? Porque, a partir del momento en que hay un razonamiento causal, un sentido común y una capacidad de construcción de evidencias mucho más sólida que la que el ser humano es capaz de atesorar, este podría quedar marginado en los procesos de toma de decisiones. ¿Cree que este es un riesgo real al que nos enfrentamos?

Por muy general que llegue a ser una inteligencia artificial, nunca será igual a una inteligencia humana

Ramón López de Mántaras: No. En mi opinión, por muy general que llegue a ser una inteligencia artificial, por muy multitarea que sea, nunca será igual a una inteligencia humana. Existe incluso un libro que se titula How the body shapes the way we think, eso es, cómo el cuerpo conforma nuestra forma de pensar. Cabe afirmar que, de hecho, la inteligencia depende del cuerpo donde está situada. Acaso haya filósofos que estén en desacuerdo conmigo en este punto, pero yo pienso que es así: para mí, la corporeidad es importante en la capacidad inteligente. Y ello enlaza con la fenomenología de Heidegger: el cuerpo, con todos sus deseos, emociones, etc.

Yo creo, por ejemplo, que si en lugar de andar sobre dos piernas anduviéramos sobre cuatro patas, si tuviéramos visión ultravioleta o infrarroja, en lugar del espectro de visión actual, y no sé cuántos tipos de sensores distintos; si captáramos nuestra visión del mundo a través de un sistema sensorial distinto del que tenemos, no tendríamos el cerebro que tenemos. Estoy convencido de que todo ello influye enormemente en todo el desarrollo cognitivo de un ente, de un ser vivo, en ese caso.

Cualquier máquina, por muy sofisticada y capaz que sea para realizar múltiples tareas y resolver problemas complejos en un amplio espectro de situaciones distintas, no es un dispositivo biológico. Y, aunque en el futuro, utilizando otras tecnologías distintas de las de ahora, no sabemos cómo llegará a ser, no sé si llegaremos a tener replicantes del tipo Blade Runner, que sean diseñados genéticamente, producto de la biotecnología, pero de carne y hueso.

Por muy humanoide que construyamos un robot y hagamos que camine sobre dos piernas como nosotros, nunca será exactamente igual a un ser humano

Lo que ahora tenemos es una inteligencia artificial implantada en ordenadores digitales, basados en tecnología de silicio y derivados, y con cámaras para captar la visión con unas determinadas características, que tienen necesariamente su manera de percibir el entorno en que se mueven.

Por muy humanoide que construyamos un robot y hagamos que camine sobre dos piernas como nosotros, y que tenga una altura similar a la de un ser humano, con visión estereoscópica y algún tipo de piel artificial que pueda tener sentido del tacto, por mucho que intentemos acercarlo al máximo a lo que es el cuerpo de una persona, eso es, por mucho que lo antropomorficemos, no será exactamente igual a un ser humano. No captará las cosas igual que las captamos nosotros y la inteligencia resultante de todo ello, en mi opinión, será necesariamente distinta.

Y no solo eso. No creo que logremos que estas máquinas, por muy similares a nosotros que sean, sigan unos procesos de socialización y que sus experiencias "vitales" a lo largo de su existencia sean como las nuestras. Por tanto, suponiendo que haya en ellas algo similar al desarrollo cognitivo, en el sentido de Piaget, no creo que lo desarrollen hasta el punto de que sea comparable al nuestro, como para pensar que sean inteligencias absolutamente indistinguibles de las nuestras y que nos puedan sustituir. O, como aventuran los defensores de la singularidad tecnológica y del transhumanismo, que incluso nos lleguen a superar, por el hecho de ser superinteligencias, y hagan que los humanos seamos completamente inservibles.

Los temores ante una superinteligencia sofisticada muy superior a la humana nos están distrayendo de los problemas reales que plantea la inteligencia artificial

Esto casi me da más risa que otra cosa, y lo siento por los seguidores del transhumanismo, que manifiestan un fervor casi religioso en algunos casos. Soy un poco crítico con esto porque creo que las cosas no van a ir por ahí, ni mucho menos. Considero que los temores ante estas superinteligencias, que serán no solo indistinguibles de la nuestras, sino muy superiores, nos están distrayendo de los problemas reales que plantea la inteligencia artificial, que no son de futuro sino de presente, y están relacionados con las amenazas a la privacidad, con la posibilidad de una vigilancia masiva a la ciudadanía, con las armas autónomas letales y otras muchas cosas que ya no son ni mucho menos una invención, sino reales, hasta tal punto de que el productor de Black Mirror ha dicho que ya no va a hacer más capítulos porque la realidad ya lo ha superado.

José María Lassalle: Absolutamente de acuerdo.

Ramón López de Mántaras: Yo creo que esto es lo que nos tiene que preocupar más, y no unas futuras inteligencias tan sofisticadas que nos superen y nos sustituyan.

José María Lassalle: Eso nos tranquiliza y es algo que compartimos. Yo tampoco creo que la inteligencia artificial vaya a sustituir al ser humano, su inteligencia y su capacidad emocional para gestionar el mundo y la relación entre nosotros, pero en ese tránsito sí se va a dar una complementariedad y un trabajo compartido. Y ello requiere, como usted dice, ciertos blindajes, por ejemplo éticos, que hagan que la inteligencia artificial se subordine a una serie de patrones éticos, sobre los cuales me gustaría que nos hablara.

En su análisis crítico sobre la inteligencia artificial creo que destaca que este es uno de los déficits de los actuales procesos de desarrollo de la inteligencia artificial. La Comisión Europea está trabajando, a través de un equipo de expertos que la asesora, en el desarrollo de un proyecto de inteligencia artificial europeo, y está profundizando precisamente en esta cuestión, que está marcando una diferencia estratégica con respecto a los Estados Unidos y a China. Háblenos un poco de esto, y con eso ya nos vamos despidiendo, si le parece.

Existen bastantes iniciativas que pretenden poner al ser humano en el centro de la inteligencia artificial

Ramón López de Mántaras: Quisiera decir también que, afortunadamente, existen bastantes iniciativas que pretenden poner al ser humano en el centro de la inteligencia artificial. Es la llamada human-centred artificial intelligence o inteligencia artificial centrada en el humano o humanística, que estaría muy alineada con el Foro de Humanismo Tecnológico que ha lanzado muy acertadamente, con los principios Asilomar 2020-2021 en los Estados Unidos y con la Declaración de Barcelona sobre el desarrollo y uso apropiado de la inteligencia artificial de 2017.

La propia Unión Europea, a través de un grupo de expertos de alto nivel sobre inteligencia artificial, ha elaborado una serie de informes y documentos sobre los aspectos éticos de la inteligencia artificial. Parece que, por lo menos en Europa, las consideraciones que tienen que ver con los aspectos éticos sí juegan o están jugando un papel muy importante en las prioridades de las políticas científicas en torno a la inteligencia artificial. En España, hace poco más de un año, el Ministerio de Ciencia, Innovación y Universidades publicó un documento sobre la estrategia de I+D+i que también pone mucho énfasis en la importancia de la ética en el uso de la inteligencia artificial.

Así que soy un poco optimista en el tema, hasta cierto punto. Pero creo que, más que hablar de la ética como parte del sistema de inteligencia artificial, la ética tiene que estar en la parte humana, en quienes desarrollan la inteligencia artificial, la despliegan y la utilizan: desde el que tiene la primera idea sobre una posible aplicación de la inteligencia artificial, su desarrollador, hasta los usuarios que intervienen en todo este flujo, en toda esta cadena. Desde el principio, el aspecto ético tiene que estar presente y ha de ser fundamental a la hora de tomar ciertas decisiones.

La ética tiene que estar en la parte humana, en quienes desarrollan la inteligencia artificial

Y eso pasa, en el fondo, por la formación y por la educación. Es decir, en mi opinión, hay que formar a un tecnólogo, a un ingeniero en informática o a un ingeniero, en todas las áreas de la ingeniería –porque esto lo podríamos generalizar–, introduciendo mucha más formación humanística en estas carreras, e incluso en los estudios previos a la universidad, proporcionando formación sobre las tecnologías de la información o sobre informática en los ciclos de educación anteriores a la universidad, en la enseñanza secundaria e incluso en la primaria, para promover el uso de la tecnología para el bien (AI for Good).

Esto lleva tiempo y no se consigue en pocos días. Pero creo que, más que centrarnos excesivamente en que el algoritmo sea ético, hemos de procurar que sean éticos quienes diseñan el algoritmo, pues si ellos ya tienen bien analizados los aspectos éticos, ya lo reflejarán en el diseño del algoritmo, e incluso se negarán a desarrollar ciertas aplicaciones como, por ejemplo, las armas letales autónomas.

Y que no nos pase como ahora, que nos hemos dado cuenta de que el reconocimiento facial es un disparate que no funciona, y ahora ya se están echando atrás Amazon, Google, Microsoft –que ya hablan de una moratoria de un año– o IBM, que admite que no hace reconocimiento facial. San Francisco ha prohibido el reconocimiento facial en toda la ciudad, donde se han constatado sus enormes limitaciones y la cantidad de errores que comete.

Nos hemos dado cuenta de que el reconocimiento facial es un disparate que no funciona

Pues bien, en vez de que tengamos que rectificar a posteriori, es mejor intentar pensarlo antes, pese a que no es fácil. Yo entiendo que tal vez no podamos anticipar todas las posibles cosas que puedan hacerse con aquel dispositivo, software o algoritmo que nos hemos inventado, porque nadie tiene esta omnisciencia o capacidad de predecir el futuro. Además, se trata de tecnologías de doble uso, y eso lo hace todavía más complicado.

Pero, bueno, sí se debería hacer mucho más de lo que se hace ahora para evitar que, una vez desplegado [el producto], se de uno cuenta de que está haciendo auténticas burradas o está funcionando mal, está discriminando y hace cosas que se tendrán que echar atrás y deberán regularse. De hecho, creo que a todos nos iría mucho mejor si, por cada euro que dedicamos a desarrollar inteligencia artificial destináramos otro euro a aspectos de regulación.

Y, entrando en el tema de la regulación, que es complicado, yo pienso que mínimamente hemos de ser conscientes de las implicaciones y regularlo bien. Hay que tener en mente que, en muchas situaciones, es necesario regular la inteligencia artificial. Y el ejemplo más claro son las armas letales autónomas, pero hay otros muchos ámbitos, como el del reconocimiento facial, en que muchos estaríamos de acuerdo en que la regulación es imprescindible.

José María Lassalle: Muchas gracias, Ramón. La verdad es que es una delicia poder hablar con usted de algo tan complejo como es la inteligencia artificial. Además, con las dotes pedagógicas que le caracterizan, estoy seguro de que hemos arrojado algo más de luz sobre un tema que supuestamente es bien conocido pero que, en la práctica, como se demuestra cuando uno entra en una conversación un poco más profunda, presenta demasiadas sombras para el común de los mortales e, incluso, para los entornos profesionales, que se supone que deben conocer bien estas cuestiones.

Esta es su casa, Ramón. Como miembro del Consejo Asesor de este Foro, es para nosotros un honor contar con usted; esta va a ser la primera de otras entrevistas que seguro que le haremos. Muchísimas gracias y enhorabuena por el trabajo que hemos comentado al principio.

Ramón López de Mántaras: Muchísimas gracias a usted, José María, y a todos, así como a Esade, por todas estas iniciativas. Esperemos que, como bien dice, sigamos durante mucho tiempo aportando nuestro granito de arena a estas cuestiones tan complejas.

José María Lassalle: Perfecto. Muchas gracias y hasta pronto.

Todo el contenido está disponible bajo la licencia Creative Commons Reconocimiento 4.0 Internacional.