Registrarse

‘Machine learning’, políticas públicas y bienestar social: retos y soluciones

A medida que el uso del 'machine learning' es más frecuente, se van analizando cada vez más las repercusiones legales y éticas de la adopción masiva de esta tecnología. Si bien se espera que el despliegue de los modelos de 'machine learning' aporte beneficios económicos y sociales, la complejidad de la tecnología y sus usos son motivo de preocupación.

Pol Borrellas e Irene Unceta, del Departamento de Operaciones, Innovación y Data Sciences de Esade, han analizado desde una perspectiva económica si el uso del 'machine learning' maximiza el bienestar social agregado o, por el contrario, se requieren algunas normas. Su investigación, publicada en la revista internacional con revisores Entropy, aborda cuatro retos principales que afectan el 'machine learning': su interpretabilidad, su equidad, su seguridad y su privacidad.

“Dado el impacto creciente de los sistemas automáticos de toma de decisiones en nuestra vida diaria, este estudio busca comprender los daños potenciales que pueden derivarse del uso de esta tecnología y proponer políticas y herramientas para prevenirlos de forma óptima”, explican. Según los autores, el objetivo de la normativa no debe ser minimizar el riesgo de daños o asegurar que todos los modelos sean interpretables y justos, lo que haría inviables algunas aplicaciones, sino garantizar que su impacto neto agregado sobre el bienestar social sea positivo y el más grande posible.

El auge de las máquinas

El 'machine learning' es un subcampo de la inteligencia artificial (IA), que utiliza algoritmos matemáticos para identificar patrones complejos de datos y llevar a cabo acciones de forma automatizada.

“El atributo más distintivo del 'machine learning' es su capacidad de aprender sin que exista una programación explícita al respecto”, explican Borrellas y Unceta. “Aprender en este contexto no se consigue escribiendo manualmente las reglas de decisión, sino proporcionando algoritmos con ejemplos a partir de los cuales se descubren unos patrones.”

Hay tres categorías de 'machine learning'. El aprendizaje supervisado es el tipo más frecuente; se utiliza ampliamente para identificar la relación entre una variable objetivo, que representa un fenómeno de interés, por ejemplo el precio de una opción o la probabilidad de impago de una deuda, y una serie de características como serian el histórico de precios para esa opción o la volatilidad del mercado, basándose en una serie dada de ejemplos. El aprendizaje no supervisado no incluye esta variable objetivo, sino que busca identificar y segmentar estructuras, por ejemplo el porfolio de un cliente, analizando las relaciones entre distintos puntos de datos. Finalmente, el aprendizaje reforzado utiliza el método del “ensayo y error”, habitual en el mundo de los videojuegos. Se permite a los algoritmos de aprendizaje que interactúen con su entorno, bajo una serie de restricciones, y que busquen acciones que maximicen el incentivo obtenido.

Las redes neuronales artificiales se utilizan cada vez más para tomar decisiones de alto riesgo

En la actualidad, numerosos modelos de 'machine learning' se aprovechan de las redes neuronales artificiales (ANNs en sus siglas en inglés): unos algoritmos inspirados en su origen en las redes neuronales biológicas. Este conjunto de algoritmos sofisticados, conocido como aprendizaje profundo (deep learning), son capaces de resolver las tareas más complejas. En consecuencia, se utilizan cada vez más para tomar decisiones de alto riesgo. Pero, si bien estos complejos algoritmos cada vez actúan mejor y con mayor precisión, sus beneficios también tienen un coste.

“Estos algoritmos son también más difíciles de interpretar”, explican Borrellas y Unceta, “con lo cual es más difícil verificarlos y validarlos, explicar sus resultados y garantizar que su comportamiento sea justo. Además, no se libran de los problemas que afectan el 'machine learning', como son los relacionados con la seguridad y la privacidad.”

Las carencias en materia de interpretabilidad, equidad, seguridad y privacidad del 'machine learning' son motivo de una presión creciente para que los responsables políticos regulen el uso de esta tecnología. Pero, según señalan Borrellas y Unceta, “antes de regular esta tecnología y de elaborar leyes al efecto, es esencial tomar en consideración las implicaciones económicas de estos desafíos”.

Las carencias en materia de interpretabilidad, equidad, seguridad y privacidad del 'machine learning' son motivo de una presión creciente para que los responsables políticos regulen el uso de esta tecnología

Los incentivos económicos del 'machine learning' varían según si se trata de organizaciones públicas o privadas. Para las privadas, una mayor eficiencia, una mejor focalización y experiencia del usuario, así como unos resultados más personalizados, ayudan a incrementar los beneficios. Desde el punto de vista del bienestar social, los usuarios obtienen valor en forma de mejores productos y servicios. “Los beneficios que se obtengan en productividad presumiblemente van a hacer bajar los precios y ello redundará en un mayor poder adquisitivo para los clientes”, añaden.

Para las instituciones públicas, los principales incentivos del uso del modelado son mejorar los servicios públicos y asignar los recursos de un modo más eficiente. Ayudar a los departamentos policiales a controlar y prevenir el crimen, a detectar el fraude fiscal, o a desarrollar procesos de toma de decisiones más imparciales (y más justos), como los modelos que se utilizan para informar las decisiones judiciales, son algunos ejemplos de usos del 'machine learning' por parte de las instituciones públicas que Borrellas y Unceta han identificado.

Propuestas políticas

“Hemos analizado el potencial de la falta de interpretabilidad, de equidad, de seguridad y de privacidad de la tecnología”, explican. “Nuestro objetivo era determinar, desde un punto de vista económico positivo, si la libre utilización del 'machine learning' maximiza el bienestar social agregado o bien, por el contrario, se requieren regulaciones. En los casos en que deberían establecerse restricciones, se han esbozado algunas políticas.”

Para lograr un nivel óptimo de interpretabilidad y equidad, la actual legislación en materia de responsabilidad civil y antidiscriminación debería adaptarse a la especificidades del 'machine learning', señalan.

“Con respecto al derecho de responsabilidad civil, proponemos una combinación de responsabilidad culposa y objetiva, y la inversión de la carga probatoria en determinadas circunstancias”, añaden. “En el caso de las leyes antidiscriminación, proponemos dos políticas: la publicación de los estándares industriales y de las buenas prácticas con respecto a la equidad algorítmica y la modificación de los procedimientos legales actuales para asegurarse de que los jurados disponen de la información y de los conocimientos adecuados para examinar casos de este tipo.”

Para lograr un nivel óptimo de interpretabilidad y equidad, la actual legislación en materia de responsabilidad civil y antidiscriminación debería adaptarse a la especificidades del 'machine learning'

Las soluciones existentes en el mercado pueden animar a los operadores del 'machine learning' a equipar sus modelos con elementos de seguridad y de privacidad que maximicen el bienestar social, añaden. “Ello ocurre de forma natural, porque los operadores del 'machine learning' tienen el incentivo de invertir recursos para satisfacer al máximo las demandas del mercado”, explican.

“En otras palabras, si los consumidores ven que las amenazas a la seguridad y a la privacidad son importantes a la hora de adoptar los modelos, los operadores se ven obligados a hallar soluciones. En consecuencia, no se requiere ninguna política adicional; los actuales incentivos parecen apropiados para hacer que los modelos de 'machine learning' sean máximamente seguros y garanticen la privacidad.”

En cambio, en el caso de los modelos de 'machine learning' que utilizan las empresas que gozan de un poder de mercado excesivo o las instituciones públicas que tienen el poder de obligar a utilizar un determinado modelo, no existe incentivo alguno para adaptar la oferta a las preferencias de los clientes y usuarios. “En estos casos concretos, imponer un derecho a la explicación podría optimizar el bienestar social agregado”, sostienen Borrellas y Unceta.

“Las instituciones públicas de todo el mundo están empezando a estudiar formas para regular el 'machine learning'”, concluyen. Este estudio tiene como objetivo servir de estímulo para fomentar más investigaciones sobre nuevas formas de abordar de manera eficiente los desafíos del 'machine learning' y mitigar las ineficiencias que las externalidades y las estructuras monopólicas pueden generar.

Todo el contenido está disponible bajo la licencia Creative Commons Reconocimiento 4.0 Internacional.