El coste del trabajo humano tras el desarrollo de la IA
Detrás de la mayoría de los modelos actuales de IA se esconde la mano de obra de trabajadores del Sur Global, expuestos a contenidos perturbadores y pésimas condiciones laborales.
Imagina trabajar 10 horas al día etiquetando imágenes perturbadoras para entrenar un modelo de IA, y que no te paguen con dinero, sino con un kilo de azúcar. No se trata de una ficción distópica, sino de la realidad de algunos de los trabajadores que están detrás de las inteligencias artificiales más avanzadas.
Aunque el desarrollo de la IA está mejorando indudablemente la vida de muchas personas al agilizar los procesos y ofrecer soluciones eficientes, también plantea una cuestión acuciante: ¿Cuál es el verdadero coste de la IA y quién lo paga?
Antonio Casilli, catedrático de Sociología en Télécom París y fundador de DipLab, abordó esta cuestión durante un seminario en Esade sobre las promesas y los peligros de la digitalización del trabajo. El acto se enmarca en el arranque del proyecto de investigación DigitalWORK, que explora cómo las tecnologías digitales están transformando el trabajo y si promueven condiciones laborales justas, equitativas y transparentes, con Anna Ginès i Fabrellas y Raquel Serrano Olivares (Universitat de Barcelona) como investigadoras principales.
La IA no es autónoma, sino humana
Para producir la IA pulida que utilizan los consumidores, hay que realizar mucho entrenamiento en la sombra. Mary L. Gray y Siddharth Suri introdujeron el concepto de "trabajo fantasma" (ghost work) en su libro de 2019: el trabajo invisible y repetitivo que impulsa el aprendizaje automático.
El trabajo manual e invisible es esencial para la percepción de la inteligencia de las máquinas
La IA no es magia. "Es el resultado de miles de microtareas realizadas entre bastidores por trabajadores humanos", afirma Casilli. Estas tareas incluyen la moderación de contenidos, el etiquetado de imágenes, la transcripción de audio y la señalización de expresiones de odio. Alguien tiene que enseñar al modelo lo que es aceptable y lo que no, y eso significa que los trabajadores están expuestos al mismo contenido que la IA está diseñada para filtrar. Una forma inquietante de pasar un día de trabajo.
La ironía es que sin estos "trabajadores fantasma" que proporcionan información humana, la IA no parecería inteligente en absoluto.
Los ejemplos son muy variados: desde trabajadores a los que se paga por etiquetar fotografías de excrementos de perro para conseguir que las aspiradoras con IA los detecten y eviten hacer un desastre, hasta una casa en Madagascar en la que se hacinan 120 personas, pasando por el visionado en directo de imágenes de seguridad de supermercados de Europa y Estados Unidos que envían alertas sobre posibles ladrones.
Esto último no es en absoluto entrenamiento de IA, sino trabajo humano disfrazado de inteligencia artificial. Estos sistemas de seguridad se comercializan como autónomos, pero para funcionar dependen de trabajadores invisibles repartidos por medio mundo. El trabajo invisible es esencial para la percepción de la inteligencia de las máquinas.
Talleres clandestinos digitales del Sur Global
Entonces, ¿dónde tiene lugar este trabajo oculto? Según la investigación de Casilli, los trabajadores se encuentran en países como Kenia, India, Filipinas y Madagascar, regiones con altos niveles de alfabetización digital, acceso a trabajadores de habla inglesa o francesa y escasa protección laboral o representación sindical.
Muchas de estas tareas se subcontratan a través de plataformas que emplean a trabajadores autónomos, lo que permite a las empresas eludir la legislación laboral y las indemnizaciones. En un caso ampliamente difundido, los trabajadores de Kenia ganaban tan solo 1,32 dólares por hora por etiquetar contenido tóxico para entrenar grandes modelos lingüísticos.
Este régimen laboral forma parte de la cadena de valor global de la industria de la IA. "Estamos asistiendo a la misma dinámica que hemos visto en otras industrias globalizadas: la IA está siguiendo los mismos caminos que el textil o la electrónica, basándose en la mano de obra barata del Sur Global para crear valor en el Norte Global", explica Casilli. "El Norte Global se beneficia de los servicios y sistemas 'inteligentes', mientras que el Sur Global proporciona la mano de obra barata en condiciones de explotación".
Incluso personas refugiadas dentro de Europa están siendo absorbidas por esta economía laboral oculta, tal y como se señaló durante la sesión de preguntas y respuestas del seminario, un hecho preocupante desde el punto de vista ético de la implantación de la IA.
Daños psicológicos: moderación de la IA y salud mental
Más allá de la explotación económica hay otro coste: el psicológico. La moderación de contenidos es una de las funciones más traumáticas de la cadena de producción de IA. Los trabajadores encargados de filtrar contenidos violentos, abusivos o sexualmente explícitos sufren a menudo trastorno de estrés postraumático (TEPT) y problemas de salud mental a largo plazo.
"Están expuestos a diario a lo peor de la humanidad en Internet", afirma Casilli. "No solo se les infravalora, sino que no se les reconoce. Es un trabajo peligroso, tanto mental como físicamente". Y, sin embargo, a menudo se considera a estas personas "trabajadores autónomos", sin acceso a asistencia en salud mental, seguridad laboral o protecciones básicas en el lugar de trabajo.
Uma Rani, Economista Senior de la Organización Internacional del Trabajo (OIT) y una de las ponentes del seminario, destacó cómo muchos de estos trabajadores son contratados inicialmente con descripciones de trabajo engañosas, a menudo diciéndoles que trabajarán como analistas de datos o traductores. Una vez contratados, la realidad es muy distinta: se pasan el día clasificando contenidos tóxicos o anotando material perturbador. "Se les exige que firmen acuerdos de confidencialidad", explica, "que les impiden hablar con nadie —ni siquiera con la familia— sobre el trabajo que hacen". Este secretismo no sólo agrava la carga psicológica, sino que hace casi imposible que los trabajadores se organicen, se sindicalicen o busquen reparación colectiva.
¿Cómo asegurar la transparencia?
Si la IA se posiciona como una herramienta para todos, ¿por qué enriquece sobre todo a las grandes tecnológicas y al Norte Global?
Casilli llama a seguir los "flujos" de la IA: "La mano de obra se extrae en Nairobi o Manila. El valor se crea en Silicon Valley, en París, en Pekín". Esta estructura desigual significa que, aunque la IA promete un empoderamiento global, a menudo reproduce los desequilibrios existentes.
Podemos evaluar la ética real de una operación de IA si sabemos, de forma transparente, cómo se produce esta IA
¿Cómo podemos hacer frente a estas desigualdades y evitar que la digitalización del trabajo reproduzca las injusticias de la era industrial?
Las ideas planteadas durante las preguntas y respuestas del seminario sugieren un camino a seguir: el desarrollo de nuevos marcos de gobernanza para el trabajo de IA, la ampliación de las protecciones laborales a los trabajadores gig y fantasma, y el aumento de la transparencia en la forma en que los sistemas de IA son entrenados y mantenidos a lo largo de toda la cadena de suministro. También existe una creciente demanda de normas éticas globales y auditorías independientes de las prácticas laborales digitales.
La IA no debe ser una excusa para hacer retroceder los derechos laborales. Por el contrario, debería llevarnos a replantearnos cómo valoramos el trabajo en la era digital.
El precio de la comodidad
El trabajador que termina su larga jornada de moderación de contenidos conmocionado por las imágenes gráficas y los discursos de odio que ha visto gana apenas 10 dólares, si no una bolsa de azúcar o un saco de arroz. ¿Es suficiente para compensar el trauma y la explotación soportadas?
A medida que la IA se integra en nuestras vidas, cabe preguntarse: ¿Qué estamos subcontratando realmente cuando confiamos en las máquinas? ¿Y a qué coste humano?
"Podemos evaluar la naturaleza ética real de una operación de IA si sabemos, de forma transparente, cómo se produce esta IA", asegura Casilli. "Este es, en mi opinión, el reto ético que estas empresas tienen que abordar —y que no están abordando— a día de hoy".
Para que la IA sea realmente transformadora, también debe ser justa, porque la comodidad de una parte del mundo no debe ir en detrimento de la dignidad de otra.
Imagen de cabecera: Clarote & AI4Media / Labour/Resources / Licenced by CC-BY 4.0
- Compartir en Twitter
- Compartir en Linked in
- Compartir en Facebook
- Compartir en Whatsapp Compartir en Whatsapp
- Compartir en e-Mail
¿Quieres recibir la newsletter de Do Better?
Suscríbite para recibir nuestro contenido destacado en tu bandeja de entrada..