La IA no es mágica: Tres consejos a la hora de enfrentarse a esta tecnología

La IA ha permitido grandes avances, pero no siempre somos capaces de explicar cómo funciona. Y aunque esta opacidad puede tener consecuencias muy negativas, la transparencia absoluta tampoco es la mejor alternativa.

Alessandro N. Tirapani

“Cualquier tecnología suficientemente avanzada es indistinguible de la magia” — Arthur C. Clarke 

Cuando ChatGPT salió a la luz a finales de 2022, concitó en la mayoría de nosotros la sensación de estar ante algo mágico. Como ocurre a menudo, esa tecnología no era radicalmente nueva: la IA generativa (inteligencia artificial) se ha utilizado ampliamente en las aplicaciones móviles y web, y el primer chatbot (Eliza) se remonta a los años sesenta. Sin embargo, la aparición de ChatGPT ha disparado la imaginación tanto de los emprendedores como de las empresas: se trata del comienzo de una nueva revolución industrial que abre nuevas oportunidades, pero que también plantea grandes desafíos. 

Varios comentaristas predicen que incluso los empleos más creativos, que se creían seguros frente a la automatización, ahora corren el riesgo de ser suplantados por la IA; los legisladores y las asociaciones del sector reclaman nuevas regulaciones, y las universidades debaten sobre cómo deberán evaluar a los estudiantes. Pero ¿qué hay detrás de esta tecnología? Y ¿por qué tanto los profesionales como los profesores consideran importante entenderla? 

Disipar el componente mágico

La historia de ChatGPT es un ejemplo de una tendencia más amplia. Desde sus inicios a mediados de los años cincuenta, los intentos de la IA por crear máquinas capaces de imitar e incluso superar las capacidades humanas han llevado a avances tecnológicos y a grandes decepciones. La investigación en materia de IA se atascó cuando los programas clásicos de ordenador, que realizaban una serie de órdenes lógicas comprensibles, se consideraron incapaces de ejecutar tareas realmente avanzadas (como crear textos a partir de prompts o reconocer imágenes).  

En ocasiones somos incapaces de explicar por qué la IA llega a ciertas conclusiones

Como respuesta a ello, una corriente distinta de IA adquirió un nuevo impulso: el aprendizaje profundo (deep learning). La principal diferencia de este enfoque es el uso de cálculos estadísticos complejos para generar predicciones basadas en muestras anteriores utilizando capas agrupadas de cálculos. Ello ha permitido unos avances revolucionarios, pero a un coste enorme: somos mayormente incapaces de explicar o interpretar cómo el deep learning deriva outputs de determinados inputs, esto es, de reconstruir todo el significado de dichos cálculos hasta llegar a esas conclusiones. Este problema se conoce como “IA (in)explicable” u “opacidad”. 

¿Es una tecnología fiable? 

En el Esade Entrepreneurship Institute, he estado trabajando, junto con Bilgehan Uzunca, en el reto de las plataformas digitales que utilizan o tratan con tecnologías opacas. Nuestra investigación muestra que la IA opaca puede tener consecuencias muy negativas, a saber, cuando los trabajadores no se fían de unas órdenes cuya lógica es incomprehensible, o cuando los clientes prefieren ser atendidos por personas humanas y no por un software oscuro.  

Por ejemplo, la IA puede ayudar a los médicos a identificar enfermedades en los pacientes, pero los cirujanos se muestran escépticos a la hora de utilizar diagnósticos que provienen de máquinas cuyo proceso de razonamiento es opaco (puesto que no puede verificarse). Otro ejemplo son los directores de recursos humanos que utilizan la IA para seleccionar a los candidatos: pueden tropezarse con sesgos arraigados ocultos que acaben perjudicando a todas las partes implicadas. 

Cualquier programa computarizado es opaco hasta cierto punto para garantizar su usabilidad

Estos factores han contribuido a que exista la visión compartida de que la opacidad en la tecnología es peligrosa y que debemos procurar la máxima transparencia, una idea muy atractiva e intuitiva. Sin embargo, cualquier programa computarizado es opaco hasta cierto punto para garantizar su usabilidad. Por ejemplo, cuando utilizamos Microsoft Word, desconocemos su funcionamiento interno. Lo mismo puede decirse de la mayoría de las apps y smartphones. Así pues, si no toda la opacidad es negativa, ¿qué hace que sea un problema en el caso de la IA? 

Tres consejos a la hora de enfrentarse a la IA 

Hemos desarrollado un marco de opacidad que puede ayudar a los directivos y a los responsables políticos a comprender mejor este problema, a disipar la impresión de que la IA es algo similar a la magia y a gestionar su adopción. Estudiando cómo se utiliza la opacidad en la tecnología, hemos logrado elaborar una breve guía para su uso. 

Los responsables de la toma de decisiones deberían saber si, cuándo y por qué algunas características de la tecnología han de ser opacas para los usuarios. Así pues, ¿qué pueden hacer los directivos y los responsables políticos para gestionar el impacto de la adopción de la IA? Proponemos tres grandes acciones: 

1. Distinguir claramente los distintos tipos de IA que van a utilizarse 

No todos los productos se basan totalmente en la IA inexplicable, basada en el aprendizaje automático o profundo. Si bien estos son los programas más impresionantes y potencialmente más disruptivos, la mayoría del software se basa en una IA perfectamente explicable y en una codificación prosaica. Por tanto, una primera propuesta es acabar con la idea de que cualquier aplicación de la IA es sumamente compleja y similar a una caja negra de magia.  

Esta confusión puede acarrear consecuencias sociales negativas, como que algunas organizaciones se dediquen al machinewashing, consistente en que las malas prácticas corporativas se justifican argumentando que las decisiones más cuestionables fueron tomadas por ordenadores. Eso también significa que los directivos deben ser conscientes de cualquier producto o servicio subcontratado, desarrollado por terceros, para evitar verse envueltos en escándalos. En definitiva, la pregunta es ¿dónde y por qué se utiliza el aprendizaje profundo? Y ¿de qué modo afecta a nuestra organización? 

2. Entender que la opacidad es esencial para la toma de decisiones estratégica 

Es esencial decidir quién tiene acceso a la lógica que hay detrás de las decisiones de la IA, y cuándo. Aunque las organizaciones deben garantizar que sus trabajadores estén plenamente informados de sus derechos laborales, de las mediciones del desempeño y de las condiciones laborales, una cuestión clave es decidir qué información debe retenerse.  

Fundamentalmente, la alta dirección debe tener una comprensión clara de qué están haciendo los programadores o los ingenieros de software, y qué elementos pueden hacerse transparentes u opacos. Por ejemplo, crear bases de datos accesibles con explicaciones detalladas permite mantener interfaces de usuario simples e intuitivas y, al mismo tiempo, incrementar la confianza en la toma de decisiones basada en la IA. 

3. Elaborar regulaciones claras y consecuentes 

España y la UE están a la vanguardia de la regulación de la IA y del trabajo digital, una labor muy bienvenida. Los responsables políticos y los reguladores deben interactuar activamente con los ingenieros y con las empresas de software con el fin de desarrollar un lenguaje compartido. Este paso inicial evitaría el uso de términos genéricos que confunden y despistan a los profesionales, los cuales los acaban descartando como intentos fútiles. 

En nuestra investigación, hemos observado que los usos divergentes de palabras como IA, opacidad o transparencia puede traducirse en unas leyes inefectivas o ineficientes. Conseguir una sólida regulación de las nuevas tecnologías, garantizando la seguridad y los derechos de los trabajadores, dependerá de saber diferenciar entre la IA inexplicable y la información ocultada deliberadamente a los usuarios finales para evitar consecuencias no deseadas. 

¿Cuánta transparencia queremos? 

Aunque estemos maravillados y asombrados por el “auge de las máquinas”, la enorme envergadura de la innovación que ha aportado la IA no debería nublar nuestro juicio. Las empresas que adoptan la IA pueden llegar a sentirse entre la espada y la pared: o elegir una tecnología que no comprenden o desperdiciar una oportunidad decisiva de crecimiento.  

Nuestro consejo también puede servir de apoyo a las formas democráticas de organizar el trabajo, mostrando que la transparencia absoluta puede no ser deseable incluso en las plataformas igualitarias o alternativas, como las cooperativas. Entender que solo una parte de la IA es realmente inexplicable y que la opacidad puede resultar necesaria en algunos casos permitirá garantizar que su adopción no tenga consecuencias sociales, organizativas y reputacionales nefastas. 

Todo el contenido está disponible bajo la licencia Creative Commons Reconocimiento 4.0 Internacional.