Regulación de la IA, algoritmos y gestión de datos: nuevos desafíos
La creciente difusión de la Inteligencia Artificial y la acumulación y el uso de datos como materia prima corporativa están planteando una serie de debates éticos y sociales, difíciles de obviar en una realidad que se mueve de manera creciente alrededor de algoritmos, predicciones de comportamiento y decisiones automatizadas.
A día de hoy, ya observamos cómo las organizaciones empiezan a reconfigurarse alrededor de su capacidad para la extracción y el procesamiento de datos. Las repercusiones y retos que se plantean – particularmente en el ámbito laboral – deberían ser objeto de consideración tanto desde el punto de vista social como regulatorio.
Los nuevos avances tecnológicos nos permiten pues automatizar la gestión de un almacén o anticipar nuestra conducta en el puesto de trabajo y la calidad de nuestro desempeño futuro. Aquí el derecho nos empuja a estudiar qué sucede con la protección de la privacidad de las personas sobre las que estudiamos estas conductas, la propiedad de los datos generados o a quién responsabilizar en caso de un accidente causado por un algoritmo o una máquina.
Los desafíos para el regulador, con todo, van mucho más allá. Para encarar la difusión de estas prácticas desde la perspectiva del derecho, podemos basarnos en tres puntos de partida: establecer una analogía entre datos y petróleo que nos permita entender los daños no deseados provocados por su extracción; observar a las plataformas digitales como agentes de cambio institucional y regulatorio con una agenda política propia; y, finalmente, entender el derecho como un espacio imprescindible de negociación entre agentes que debe posibilitar la protección del colectivo frente a los dilemas y tensiones planteados por la difusión de la IA.
Considerar los datos como el nuevo petróleo
Desde el momento en que entendemos que la estructura tecnológica de la IA descansa en la lógica algorítmica y que ésta depende de la extracción, manipulación e integración de datos en bases de datos de gran volumen, la analogía datos-petróleo nos permite observar la contaminación producida en esta extracción, así como sus daños indirectos y no siempre estudiados.
Los datos, como el petróleo, atesoran grandes beneficios pero también grandes potenciales amenazas. Los datos, como el petróleo, pueden ser más o menos limpios (o útiles); su coste de extracción va a variar; el refinado de éstos exige de un conocimiento y una tecnología que las empresas extractoras a menudo deben externalizar en forma de app o empresa consultora, lo cual genera situaciones de dependencia entre compañías y también la distinción entre organizaciones ricas y organizaciones pobres en datos. Su análisis y refinamiento tiene costes ambientales (consumo energético) y plantea enormes retos de seguridad. Si algo nos enseña la economía es que las externalidades negativas no pueden ser corregidas sólo desde las empresas. De la misma manera que sucede con el petróleo, para garantizar el bienestar colectivo debemos acudir a la regulación. No hay otro agente para esta función.
Las plataformas tecnológicas como agentes de cambio institucional
¿Y quién está detrás de los intentos de limitar la regulación en el ámbito de la IA y la gestión algorítmica? Si miramos las controversias crecientes desde una disciplina como la sociología de la tecnología, es evidente que las grandes plataformas digitales toman este papel como creadoras de marcos normativos y agentes de cambio cultural a la vez. Esto hace que la tecnología sea utilizada habitualmente como herramienta al servicio de una ideología, con su agenda y sus principios, y el regulador debe ser consciente de ello.
Un reto social mayúsculo es el que nos plantea el tecnooptimismo, una lectura que hace que se minusvaloren los peligros, se amplifiquen las potenciales bondades de la IA y que se etiquete la regulación y la norma como “freno a la innovación”. La interpretación de que la norma es un freno, alimentada por las expectativas de un retorno financiero rápido de los mercados y los medios de comunicación, en la práctica, termina poniéndose al servicio de actuaciones corporativas dudosas, cuando no abiertamente ilegales. Un ecosistema cultural que plantea un desafío para el regulador: como sociedad ¿podemos permitirnos la perpetuación de estrategias competitivas que descansen en la venta a pérdida (o dumping)? ¿y en la habitual elusión del cumplimiento de la norma, por ejemplo, en el caso del mantenimiento de relaciones laborales de dudosa idoneidad?
El derecho como resultado de la negociación entre agentes
Las recientes sanciones de la Comisión Europea a las grandes plataformas nos indica un cambio de tendencia. El reciente activismo regulatorio alrededor de la digitalización y la Inteligencia Artificial, particularmente en el marco de la UE, nos permite entender que la etapa de libre experimentación alrededor de la extracción de datos y el culto acrítico a la tecnología se encuentra cerca de finalizar. Históricamente, la tecnología siempre se ha negociado. La relación de la tecnología con la sociedad es una relación de simbiosis con etapas de conflicto y de diálogo. Y el derecho es una de las maneras principales como se cataliza esta negociación y cómo se aceleran o frenan estos desarrollos.
A nivel mundial, observamos pues tres modos diferentes de aproximarse a la regulación de la actividad empresarial en el ámbito de la IA y los datos: el laisser faire norteamericano; la recentralización de los modelos de gobernanza y supervisión de las plataformas, en el caso de China; y el modelo social crecientemente intervencionista europeo.
Avanzar en la regulación y la autorregulación de la IA: prioridad de la UE
¿Pero cómo resolvemos la brecha existente entre la velocidad del desarrollo tecnológico y la adaptación del marco regulatorio y su implementación? La urgencia y magnitud de los retos que se nos plantean hacen imprescindible un apoyo público a la creación de marcos de autorregulación desde el sector privado, tal y como nos muestran las crecientes iniciativas surgidas en el área del buen gobierno de la IA y la gestión responsable de datos. Las prioridades del legislador, particularmente en la UE, deben pues acompañar e incentivar la autorregulación del sector privado.
A la vez, y paradójicamente, la nueva regulación debe desligarse de determinadas premisas fomentadas desde las mismas empresas tecnológicas sobre como regular la tecnología. Un ejemplo nos lo da el Reglamento General de Protección de Datos (RGPD) de la UE. El reglamento da por descontada la presunta autonomía de los individuos para decidir si aceptan o no determinadas prácticas de extracción de datos y asume que nuestra actuación es racional, consciente e informada. Como nuestra experiencia cotidiana nos demuestra, es imprescindible asumir que la autonomía y el conocimiento necesarios para acometer los retos de la IA y la gestión automatizada de nuestros datos ni existen ni pueden recaer únicamente en las personas.
Desmitificar el aura matemática de los algoritmos
El regulador debe avanzar en la promoción de nuevas y más complejas formas de responsabilización adaptadas a la realidad específica de la automatización y la gestión por algoritmos. Hay que recordar que las matemáticas o la estadística son disciplinas que solo nos revelan la verdad de los números sobre el papel o en la pantalla. No nos hablan de la oportunidad, del impacto o de la idoneidad de la implementación de una tecnología o de la automatización de un proceso. Si la primera es una lógica numérica, la segunda es una lógica social.
Entender el resultado de un algoritmo como una opinión, más o menos informada, pero opinión al fin y al cabo, nos permite desmitificar su aura matemática. Este punto de partida también va a permitirnos plantear quién está detrás de esta opinión, reforzar la aplicación de criterios de transparencia, la trazabilidad de la cadena de datos y la explicabilidad del algoritmo. La pretensión de veracidad de los algoritmos, por parte del regulador, debe ser siempre puesta en cuestión. Y esta es una tarea que no puede descansar solo en el conocimiento tecnológico.
Regulación de la automatización en el lugar de trabajo: empoderar a las personas trabajadoras
Finalmente, en el ámbito laboral, parece obvio remarcar la necesidad de la interlocución sindical para trasladar a la realidad concreta de cada sector y de cada empresa el conjunto de debates que la difusión de la gestión por algoritmos plantea. Las futuras normas que aborden el uso de la IA en un entorno de trabajo (la gestión de datos y la automatización de procesos en el entorno profesional, entre ellos) deberían dar un papel relevante a las personas trabajadoras y a sus representantes, a la vez que promover su formación y capacitación para que comprendan la magnitud y alcance de estos desafíos. Compensar el creciente desequilibrio de poder en el seno de las organizaciones es una de las maneras viables para corregir algunos de los desafíos planteados por la IA dentro de las organizaciones.
La ponencia completa puede visualizarse aquí.
David Murillo, Departamento de Sociedad, Política y Sostenibilidad de Esade, es investigador en el proyecto LABORAlgorithm financiado por el Ministerio de Ciencia, Innovación y Universidades y la Agencia Estatal de Investigación, Proyecto PGC2018-100918-A-100
Profesor titular, Departamento de Sociedad, Política y Sostenibilidad en Esade
Ver perfil- Compartir en Twitter
- Compartir en Linked in
- Compartir en Facebook
- Compartir en Whatsapp Compartir en Whatsapp
- Compartir en e-Mail
¿Quieres recibir la newsletter de Do Better?
Suscríbite para recibir nuestro contenido destacado en tu bandeja de entrada..