La inteligencia artificial: ¿Revolución tecnológica o amenaza existencial?

El desafío crucial de la IA no es técnico, sino humano. Sus aplicaciones dependerán de la capacidad individual y colectiva para diseñar futuros prósperos.

Núria Agell
Queralt Prat-i-Pubill

Este artículo forma parte del ‘Informe Económico y Financiero de Esade #33: El momento de la Inteligencia Artificial’. 


En los últimos años, tres informaciones han generado inquietud en la comunidad de la Inteligencia Artificial (IA). En primer lugar, en agosto de 2022, una encuesta realizada a 738 expertos en IA reveló que el 50% de ellos cree que existe un 10% o más de posibilidades de que la humanidad se extinga debido a nuestra incapacidad para controlar la IA. En marzo de 2023, el Future of Life Institute, especializado en riesgos de extinción humana, emitió una carta firmada por expertos de todo el mundo en la que pedía una pausa de seis meses en los modelos avanzados de IA. Por último, en mayo de 2023, el Centro para la seguridad de la IA emitió una declaración firmada por algunos ejecutivos de las principales empresas de IA como OpenAI, DeepMind, Anthropic y los ganadores de los premios Turing. Su mensaje fue claro: “Mitigar el riesgo de extinción debido a la IA debería ser una prioridad mundial, al mismo nivel que las pandemias y la guerra nuclear”.  

¿Están fundamentados los miedos que aparecen en algunos sectores de la sociedad? ¿Puede la IA modificar el planteamiento que tenemos del mundo actual? Estas son algunas de las cuestiones que intentaremos responder en este artículo.

A lo largo de la historia, muchos avances tecnológicos de la humanidad han generado confusión y miedo durante el tiempo de adaptación al nuevo cambio. La duda siempre es: ¿estaremos mejor? ¿O esta nueva tecnología entraña riesgos sustanciales para la humanidad? Hoy nos resultaría imposible vivir sin luz artificial o sin coches, pero el progreso tecnológico que nos aportaron estos avances disruptivos fue también muy polémico a lo largo de los siglos XVIII y XIX.  

El discurso sobre los riesgos de la IA contribuye a exagerar la percepción que rodea a los sistemas inteligentes

Cuando pensamos en la IA, reconocemos que estamos delante de una nueva realidad que está transformando nuestra forma de vivir, y que actualmente aporta, y puede aportar, muchas ventajas para el futuro de la humanidad. La IA está presente en una gran variedad de aplicaciones como cirugía médica, detección de fraude financiero, planificación logística, sistemas de recomendación, asistentes virtuales, y decisiones judiciales, entre otros. Vivimos rodeados de sistemas inteligentes a los que podemos pedirles que la casa tenga la temperatura adecuada, que nos hace la lista de la compra, que nos avisa cuando el coche está cargado, y que nos ayuda a buscar qué camino debemos seguir para movernos por una ciudad desconocida. La IA también está fomentando la innovación en la investigación y el descubrimiento científico, creando nuevas oportunidades empresariales y laborales. 

Intuimos que la inteligencia artificial puede llevarnos a avances inimaginables, tenemos buenas teorías, y las mejoras en los procesadores y la ampliación de la capacidad del almacenamiento de los datos hará que la IA nos aporte soluciones en situaciones que casi nadie espera. Pero, aunque el desarrollo de la IA trae consigo mejoras e incrementos de eficiencia en muchas áreas, también genera miedos, ya que su desarrollo no está exento de posibles consecuencias negativas (como sesgos algorítmicos, problemas de seguridad, de privacidad o transparencia y vacíos de responsabilidad en las decisiones).  

Paradójicamente, el discurso actual sobre los riesgos de la IA, en particular en relación con la posible extinción de la humanidad, contribuye a exagerar la percepción que rodea a los sistemas inteligentes. Esta mayor percepción del poder de la IA: (¡puede extinguir a la humanidad!), aumenta las valoraciones y las oportunidades de financiación para las empresas relacionadas con la IA.  

La IA, como cualquier avance científico, dependiendo de su diseño e implementación tendrá unas consecuencias que nos afectarán de diferente manera. Pero antes de analizar los riesgos y beneficios, centrémonos un momento en la definición de qué es la IA. 

¿Qué es la IA?  

Por lo general definimos la IA como la capacidad de una máquina para realizar tareas que normalmente requerirían inteligencia humana, tareas tales como el aprendizaje, el razonamiento, el reconocimiento de patrones, la toma de decisiones y la resolución de problemas. Esta definición básica de inteligencia artificial es una definición pragmática, pero dentro del campo de las ciencias de la computación el término ‘inteligencia artificial’ normalmente hace referencia a sistemas que perciben su entorno y son capaces de aportar soluciones para modificarlo, es decir, toman decisiones que maximizan las posibilidades de alcanzar un objetivo.  

Los sistemas de IA no necesitan alcanzar la superinteligencia para generar riesgos para nuestras sociedades

La IA se clasifica comúnmente en dos tipos: inteligencia artificial estrecha (ANI, por sus siglas en inglés) e inteligencia artificial general (AGI, por sus siglas en inglés). La IA estrecha está diseñada para realizar tareas específicas, mientras que la IA general está diseñada para realizar tareas autónomas y complejas sin supervisión humana. Algunos ejemplos de IA estrecha son los chatbots (como Siri), que están diseñados para entender y responder a las órdenes de voz o escritas; los coches autónomos, que están diseñados para navegar por carreteras y tráfico; o ChatGPT, que puede generar texto a partir de indicaciones. Es el tipo de IA más común y el único que existe en la actualidad. La IA general, por su parte, sería capaz de realizar cualquier tarea intelectual humana, incluyendo comprender y responder a preguntas muy complejas, adaptarse, entender y ser consciente de sus acciones, pero todavía se encuentra en el ámbito de la ciencia ficción. 

La gobernanza y la educación como puntos clave  

Geoffrey Hinton, un investigador influyente en el campo del desarrollo de IA y ganador del prestigioso Premio Turing, se ha convertido en un destacado crítico sobre el progreso acelerado de la inteligencia artificial. Hinton argumenta que nuestras sociedades no están preparadas para enfrentar los peligros derivados del rápido progreso de la IA. En efecto, y contrariamente a la creencia popular, los sistemas de IA no necesitan alcanzar la superinteligencia o poseer inteligencia artificial general para generar riesgos para nuestras sociedades. Las capacidades actuales de los sistemas de IA estrechos, junto con una regulación y gobernanza insuficientes, ya nos exponen a peligros y riesgos sustanciales. Por ello, Hinton subraya la necesidad apremiante de crear una gobernanza adecuada para mitigar estos peligros de manera efectiva.  

No obstante, es crucial reconocer que estos riesgos y peligros de la IA no solo provienen de actores maliciosos, sino que también están arraigados en nuestra limitada comprensión de estos sistemas y en sus limitaciones operativas. Para conseguir un futuro esperanzador con una IA que sea capaz de innovar y ayudar a solucionar problemas de nuestra sociedad, debemos minimizar estos dos tipos de riesgos: por un lado, los riesgos derivados de los comportamientos tanto perjudiciales como éticamente dudosos derivados por una insuficiente gobernanza y, por otro lado, los derivados de la comprensión limitada, o incluso incompetencia manifiesta, de quienes utilizan los sistemas de IA.  

Uno de los desafíos de gobernanza de la IA es que la regulación va por detrás de las externalidades conocidas

La gestión del primer tipo de riesgos, aquellos derivados de prácticas controvertidas, nocivas o dañinas, requiere una regulación adecuada. Sin embargo, lograr una gobernanza efectiva en este ámbito es complicado, ya que implica la gestión y participación ágil de expertos de diversas disciplinas, así como la interacción con la sociedad civil y las empresas. La próxima regulación europea, conocida como Artificial Intelligence Act, definirá distintos niveles de riesgo de la aplicación de cada sistema de IA que servirán como base para determinar el tipo de regulación y gobernanza a la que estarán sometidos los avances de la IA. 

No obstante, la comprensión de las acciones y comportamientos de los sistemas de IA resulta compleja no solo debido a la tecnología involucrada, sino también porque las empresas y los ecosistemas organizacionales poseen información esencial que no se comparte públicamente. Esto impide a los ciudadanos y a los gobiernos llegar a una comprensión clara de su alcance. Ante estos desafíos, en 2019 Japón presentó durante una reunión del G20 una propuesta innovadora denominada “sociedad 5.0”. Esta iniciativa reconoce la necesidad de adoptar un enfoque de gobernanza que involucre múltiples partes interesadas, y promueve un nuevo tipo de democracia que busca abordar los retos y aprovechar los beneficios de la IA de manera equitativa y transparente.  

Opacidad algorítmica
Contenido relacionado — [Vídeo] Abriendo la caja negra: El derecho a algoritmos transparentes

Los desafíos a los que nos enfrentamos al gobernar la IA se asemejan en cierta medida a los que se observan en industrias como la del petróleo y el gas o la tabacalera, donde la regulación a menudo va por detrás de las externalidades conocidas. En 2018, los eminentes investigadores Ramon López de Mántaras y Luc Steels encabezaron un destacado grupo de científicos europeos para establecer el manifiesto de Barcelona para la IA, una iniciativa pionera que aún mantiene su relevancia debido a la lucidez y concreción de las propuestas que plantea, las cuales merecen mayor atención y consideración.  

La gestión del segundo tipo de riesgos, aquellos asociados a la mala utilización de la IA debido a la falta de conocimiento de las personas, puede ser mitigada mediante una sólida formación dirigida a aquellos que utilizan herramientas o sistemas basados en IA, así como a todas las personas afectadas por estos sistemas, que es, a fin de cuentas, la población en general. Es crucial reconocer que el éxito, la proliferación y la eficacia de los usos de la IA dependen de esta implicación colectiva. En este sentido, garantizar una formación adecuada permitirá minimizar los riesgos y maximizar la implementación y los beneficios de la IA, asegurando que las personas comprendan su funcionamiento y utilicen la tecnología de manera responsable y ética. Muchas veces, los proyectos de IA pueden enfrentarse a contratiempos y fracasar por la dificultad de implementar cambios en los procesos y sistemas existentes, por eso es esencial educar sobre las capacidades y limitaciones de la IA y la necesidad de hacer seguimiento y mejora constantes. 

Nuestro futuro en la era de la IA

Por último, se ha discutido mucho sobre la destrucción del empleo, aspecto en el que hay muchas incógnitas. La IA puede ayudar a los trabajadores ampliando sus capacidades, disminuyendo el trabajo repetitivo y peligroso. También creará nuevos tipos de trabajos. Es importante tener en cuenta que las perspectivas sobre el trabajo y su centralidad en la vida pueden variar entre culturas e individuos. Puede ser que la aceleración constante de la ciencia y la tecnología permitan crear nuevas posibilidades de vivir una vida plena sin estar tan vinculada a la noción actual de trabajo.  

¿Hacia qué dirección debe avanzar la inteligencia artificial? Lo que proponen los científicos es una inteligencia artificial centrada en las personas, que potencie nuestras capacidades. Es decir, debemos ir hacia una inteligencia artificial que no substituya a las personas pero que mejore nuestras capacidades y nos sitúe en el centro de la evolución tecnológica. Una inteligencia artificial abierta, basada en una clara legislación y que contemple el desarrollo de técnicas que permitan encriptar los datos personales y trabajar de forma segura. Una inteligencia artificial que ayude a la humanidad a innovar y desarrollar estrategias y soluciones más claras a los retos que se nos plantean.  

Puede que la aceleración tecnológica permita vivir una vida plena sin estar tan vinculada a la noción actual de trabajo

Para acabar, aunque es relevante reconocer que hoy en día muchos sistemas de IA presentan problemas de funcionalidad que dificultan su eficacia e implementación en la sociedad, el desafío crucial de la IA no es técnico, sino humano. Depende de la calidad humana de las personas y de la capacidad individual y colectiva para diseñar futuros prósperos. Necesitamos fomentar el debate e instar a todos los ciudadanos y gobernantes a avanzar hacia un proyecto de valor colectivo que beneficie a toda la sociedad, frenando comportamientos explotadores que, debido a las características de la IA, pueden resultar fatales para la humanidad. La IA puede ser una aliada en este desafío, al impulsar nuevas formas de innovación, eficiencia y justicia en nuestras sociedades. Recordemos que la cuestión de cómo los sistemas de IA impactan en nuestro mundo es una elección humana. No debería ser un asunto técnico ni estar en manos de las empresas tecnológicas. No hay nada inevitable en nuestra situación actual. 

Todo el contenido está disponible bajo la licencia Creative Commons Reconocimiento 4.0 Internacional.