Hero Image
A picture of the Esade panel moderated by Irene Unceta

El coste oculto de la IA: ¿Cuál es el precio del progreso tecnológico?

Innovación y tecnología 12 Marzo 2025

Las decisiones impulsadas por la IA afectan a áreas críticas como el bienestar, el empleo y la democracia, a menudo amplificando desigualdades existentes.

Equipo Do Better

A medida que la IA se integra cada vez más en nuestra vida diaria, crecen las preocupaciones sobre sus costes ocultos. Aunque tiene el potencial de impulsar el crecimiento económico y la innovación, también plantea cuestiones sobre equidad y gobernanza. Durante el evento 4YFN en el MWC Barcelona, Irene Unceta, directora académica del Bachelor in Artificial Intelligence for Business de Esade, moderó un debate sobre las implicaciones sociales y económicas de la IA con expertas líderes en el sector. 

El panel contó con la participación de Marta Poblet, Senior Research Lead en The Data Tank y profesora adjunta en la Universidad RMIT; Anna Colom, Senior Policy Lead en The Data Tank; y Julia Wallner, Chief of Staff en appliedAI Initiative GmbH. Juntas exploraron las consecuencias de la toma de decisiones basada en IA en la desigualdad, el empleo y la democracia, así como las responsabilidades éticas de las empresas y los gobiernos para garantizar un desarrollo y una implementación tecnológica justos. 

Desigualdad y exclusión en el desarrollo de la IA

Como señaló Unceta, la IA suele presentarse como una fuerza de progreso, pero ¿es igualmente positiva para todos? ¿Quién se beneficia realmente y quién paga el precio? Hasta ahora, el desarrollo de la IA está concentrado en unas pocas empresas y países poderosos. Y dado que los sistemas de IA reflejan y amplifican desigualdades sociales preexistentes, aquellos que ya están marginados corren el riesgo de quedarse aún más atrás. 

“No es que las tecnologías emergentes impliquen necesariamente un coste para el progreso”, explicó Anna Colom. “Pero si no se desarrollan, implementan y regulan correctamente, sí lo hacen”. Subrayó que estos problemas se vuelven especialmente críticos cuando la IA se aplica a servicios públicos como la sanidad, el acceso financiero y el bienestar social. Cuando los algoritmos determinan quién puede acceder a un préstamo, un seguro o una ayuda gubernamental, los sesgos en estos sistemas pueden generar resultados injustos. 

No se trata solo de problemas técnicos, sino que afectan a la vida de millones de personas

Colom hizo referencia a un caso real en el que la autoridad fiscal neerlandesa utilizó un algoritmo para detectar fraudes en el sistema de bienestar. Padres de origen extranjero fueron injustamente señalados por el algoritmo y acusados de presentar solicitudes fraudulentas de ayudas para el cuidado infantil. En algunos casos, se les exigió la devolución de sumas que ascendían a decenas de miles de euros. Miles de familias fueron empujadas a la pobreza, cientos de niños fueron enviados a centros de acogida y algunas víctimas incluso se suicidaron. 

Se trata de un crudo ejemplo que ilustra cómo un sistema de asignación de ayudas basado en IA puede causar un daño significativo si su implementación es defectuosa. “No se trata solo de problemas técnicos: afectan a la vida de millones de personas”, enfatizó. 

Gobernanza de la IA: ¿quién tiene voz?

El panel de expertos abordó otra cuestión crucial: la gobernanza global de la IA. La competencia por el dominio de la IA suele enmarcarse como una lucha entre grandes potencias, pero ¿qué ocurre con aquellos que quedan fuera de la conversación? 

Las voces del Sur Global han sido en gran medida ignoradas”, señaló Marta Poblet. “Mientras hablamos de convergencia global en principios de IA, la realidad es que la equidad, la transparencia y la rendición de cuentas suelen ser definidas por instituciones occidentales. Sin embargo, hay iniciativas valiosas emergiendo en el Sur Global de las que rara vez se habla”. 

Si no tienes conocimientos técnicos, estás excluido del debate. No debería ser así

Conceptos como Kaitiakitanga —un término maorí que representa la custodia, la responsabilidad y la interconexión— o Ubuntu — palabra bantú del sur de África que se traduce como “humanidad hacia los demás” o “soy lo que soy por lo que todos somos”—, podrían aportar un valor inmenso al diseño de una gobernanza de la IA que tenga en cuenta las amplias y diversas implicaciones de una tecnología con estas características. 

Poblet destacó la necesidad de una formulación de políticas inclusiva, en la que las comunidades afectadas tengan voz en el proceso regulador. “Si no tienes conocimientos técnicos, estás excluido del debate. No debería ser así”. Su propuesta pasa por integrar la inteligencia colectiva en la gobernanza de la IA, garantizando que la participación pública no se limite a la legislación, sino que también abarque la implementación y el seguimiento. 

La responsabilidad corporativa en la ética de la IA

¿Qué papel juegan las empresas en la resolución de estas brechas? “Las empresas deben definir qué significa la equidad dentro de sus ambiciones con la IA”, afirmó Unceta. Comprender cómo funciona la IA es fundamental, y las empresas deben priorizar el diseño de sistemas equitativos desde el principio. 

Según Julia Wallner, la equidad en la IA no es algo que pueda evaluarse solo en el momento del despliegue; debe integrarse desde el inicio del desarrollo. “No se trata solo de cumplir con la normativa, sino de transparencia y responsabilidad”, dijo. 

Más allá del cumplimiento normativo, Wallner destacó la necesidad de que las empresas aborden proactivamente el desplazamiento laboral. “No solo estás transformando tu empresa, sino también la vida de las personas”, advirtió. No se trata solo de mantenerse competitivo, sino también de invertir en la formación y reconversión de los trabajadores. El Foro Económico Mundial estima que, mientras que la IA generará 11 millones de nuevos empleos, también eliminará 9 millones. “Pero estas no son transiciones de habilidades directas—existe una brecha significativa por cerrar”, señaló. 

Colom añadió que el reto no es solo la formación, sino también evaluar críticamente qué habilidades se priorizan y cuáles se pierden en el proceso. Advirtió que una dependencia excesiva de la toma de decisiones basada en IA en los mercados laborales, como la gestión algorítmica en la economía de plataformas, puede aumentar la vulnerabilidad de los trabajadores. 

IA y democracia: ¿un riesgo creciente?

Más allá de la desigualdad y el empleo, la IA también tiene profundas implicaciones para la democracia. Colom advirtió que la concentración del poder de la IA en unas pocas grandes corporaciones tecnológicas conlleva el riesgo de pasar del tecnocapitalismo al tecnoautoritarismo. 

Otros riesgos incluyen la atomización, el individualismo extremo y la pérdida de un entendimiento social compartido. “Para que la democracia funcione, es importante que nos comprendamos, reconozcamos nuestra interconexión y construyamos puentes”, señaló. La IA en sí misma no es el problema, pero debe construirse sobre principios democráticos y considerar las relaciones humanas. 

Si regulamos la IA como un único concepto, crearemos monstruos legales

Poblet también subrayó que la gobernanza de la IA debe adoptar un enfoque holístico. “Lo primero al hablar de gobernanza de la IA es entender el objeto de esa gobernanza”, explicó. “Si regulamos la IA como un único concepto, crearemos monstruos legales. Es como regular el fútbol centrándose solo en el balón. El balón es esencial, pero ¿qué pasa con el resto de elementos?”. 

¿Deberíamos pausar el desarrollo de la IA?

Uno de los debates más candentes en la ética de la IA es si algunos desarrollos deberían ralentizarse o incluso detenerse. Poblet argumentó que, aunque una prohibición total no es realista, ciertos sistemas autónomos deberían pausarse hasta que existan marcos regulatorios adecuados. 

"Algunos sistemas no deberían prohibirse por completo, sino posponerse por un tiempo", afirmó. Ese es el caso de los sistemas totalmente autónomos, ya que "aún no comprendemos completamente sus implicaciones y necesitamos establecer un marco regulatorio adecuado". Una perspectiva con la que Wallner coincidió: "Algunas cosas deberían ralentizarse mientras reflexionamos sobre el mundo en el que queremos vivir". 

Para Colom, las prohibiciones temporales pueden ser una herramienta legal legítima cuando es necesario. “Las industrias alimentaria y aeronáutica no permiten que productos no probados lleguen al mercado, ¿por qué debería ser diferente con la IA?". 

El camino a seguir: responsabilidad y acción

Wallner concluyó que la regulación de la IA y la responsabilidad corporativa deben ir de la mano. "Las empresas son cada vez más conscientes de estos problemas, pero, al final, la ética de la IA trata de lo que haces cuando nadie te está mirando. No debería ser solo una estrategia de marketing, sino estar arraigada en los valores de la empresa". 

A medida que la IA sigue evolucionando, el gran desafío es garantizar que el progreso tecnológico no se logre a costa de la equidad, la inclusión y la democracia. Con una regulación bien pensada, prácticas corporativas éticas y un enfoque inclusivo de gobernanza, la IA puede realmente servir a los intereses de todo el mundo, y no solo de unos pocos privilegiados. 

Todo el contenido está disponible bajo la licencia Creative Commons Reconocimiento 4.0 Internacional.