Registrarse

Podcast: Hacia un ecosistema de excelencia en inteligencia artificial

Podcast: Hacia un ecosistema de excelencia en inteligencia a...

EsadeEcPol

El efecto acumulado de los sistemas basados en inteligencia artificial en la producción, en el mercado, en la política pública y, en general, en nuestras vidas diarias está creciendo de manera exponencial. En este contexto, la pregunta crucial a futuro es cómo podemos asegurar que estos avances nos ayuden a construir una sociedad más segura, justa y próspera y que, a la vez, impulsen la innovación y el desarrollo de un ecosistema dinámico en España y Europa.

En este podcast, Toni Roldán, director de EsadeEcPol, y José Ignacio Torreblanca, director de la oficina de Madrid del European Council on Foreign Relations, profundizan en los retos de la inteligencia artificial con Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, Cecilia Álvarez, EMEA Privacy Policy Director de Facebook, y Teresa Rodríguez de las Heras, profesora titular de Derecho Mercantil de la Universidad Carlos III de Madrid.

TRANSCRIPCIÓN

[Toni Roldán]: Buenos días. Bienvenidos a todos. Hoy vamos a hablar de inteligencia artificial, uno de los grandes temas del momento y del futuro, las funciones regulatorias, las funciones éticas y las múltiples dimensiones que están cambiando y afectando nuestras vidas. Hace muchos años que existe la inteligencia artificial, pero es solo desde hace un tiempo que ha empezado a transformar profundamente nuestras vidas, desde el modo en que consumimos, a la seguridad con que nos movemos e incluso cómo elegimos nuestra música o películas. Afecta a nuestra salud, a la política, a la democracia, a los derechos humanos, y tiene implicaciones enormes en todos los ámbitos de nuestra vida, algunas de ellas claramente positivas. Aporta enormes innovaciones que nos permiten predecir los riesgos de salud o mejorar la forma en que consumimos, pero también existen implicaciones negativas y dimensiones éticas muy profundas que pueden afectar (por ejemplo, con sesgos de género o raciales) a la manera en que trabajamos o qué personas se eligen para ocupar determinados trabajos. La inteligencia artificial tiene dimensiones y riesgos económicos importantes, e incluso físicos, que deben catalogarse, ordenarse y regularse.

El objetivo que tenemos en EsadeEcPol es tratar de mejorar estos debates para entender mejor cuál debe ser la posición de nuestro país con respecto a estas cuestiones, y también intentar participar desde una posición que permita seguir aprovechando esas enormes oportunidades de innovación y, al mismo tiempo, controlar y ejercer un poquito de embudo, para reducir esos riesgos o para evitar que sucedan.

Durante mucho tiempo, la Unión Europea y los demás países han tratado de controlar esta cuestión de una manera muy separada, y en los últimos tiempos se ha avanzado en la autorregulación. El pasado mes de abril la Comisión Europea lanzó una iniciativa muy importante para tratar de regular el funcionamiento de la inteligencia artificial: la UE es pionera en este debate.

Hoy hablaremos de estas cuestiones y, para ello, tenemos la enorme suerte de contar con tres ponentes de excepción y con un moderador estupendo, que es Nacho Torreblanca, director de la oficina de Madrid de ECFR. Le van a acompañar Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial; Teresa Rodríguez de las Heras, profesora titular de Derecho Mercantil de la Universidad Carlos III, y Cecilia Álvarez, Privacy Policy Director de Facebook para Europa, Oriente Medio y África.

Os dejo con Nacho Torreblanca. Muchísimas gracias a todos por estar aquí.

[José Ignacio Torreblanca]: Buenos días a las ponentes y a todo el mundo, y gracias, Toni, por la presentación y por darme la oportunidad de moderar este debate. Estoy encantado de estar en un panel sobre tecnología con tres mujeres, así que dejadme que ponga mi cuota de imperfección en este tema de la inteligencia artificial y la tecnología.

Quisiera empezar con esta idea: venimos de una campaña electoral de emociones desbordadas, como siempre ocurre en el terreno de la política. Ayer leía una frase maravillosa que escribe Edward Wilson en su libro La conquista social de la Tierra, donde dice que tenemos emociones de la Edad de Piedra, instituciones de la Edad Media y tecnología de dioses. Y ese desfase entre los avances tecnológicos que tenemos sobre la mesa y cómo gestionarlos, con qué instituciones y con qué emociones, creo que define muy bien cuál es el reto al cual nos enfrentamos: encontrar la regulación adecuada para gestionar la tecnología como humanos que somos, con nuestras fortalezas y nuestras debilidades. Así que a mí –y creo que a todos– apetece muchísimo este debate.

Quisiera empezar con Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial y que, además, ha tenido una vida anterior en el mundo empresarial y en el desarrollo del negocio en estas materias, así que posee una gran experiencia. Y quisiera preguntarte, Carme, ahora que la Comisión Europea acaba de hacer pública su propuesta de regulación sobre la inteligencia artificial, cuál es la visión de España sobre cómo debe orientarse esta regulación y qué queremos aportar exactamente desde nuestro país a esta regulación.

[Carme Artigas]: Muchas gracias, Nacho, y también a ti, Toni, por invitarme a Esade a participar en este foro tan enriquecedor y, como decías en tu introducción, al debate tan necesario de profundizar en esos temas, porque muchas veces la tecnología nos queda en el plano del absoluto hacer o del absoluto miedo, y justamente porque las cuestiones éticas alrededor de la tecnología no son sencillas creo que es importantísimo tener este debate.
Estamos ante un apasionante reto que no ha hecho más que empezar y que, como decía Roldán en la introducción, presenta grandes oportunidades, pero también requiere unos parámetros básicos regulatorios para que la tecnología esté al servicio de las personas y de una sociedad más moderna y más justa.

En España, ya publicamos en diciembre pasado la Estrategia Nacional de Inteligencia Artificial, que incorporaba, entre sus ejes, la necesaria definición de un marco ético y normativo para la inteligencia artificial.

La inteligencia artificial presenta grandes oportunidades, pero también requiere unos parámetros básicos regulatorios para que la tecnología esté al servicio de las personas y de una sociedad más moderna y más justa

El 21 de abril, la Comisión Europea aprobó una primera propuesta de reglamento para dar un enfoque europeo a la inteligencia artificial. Era un documento muy esperado, después del Libro blanco del pasado febrero. Se trata de una propuesta de reglamento, lo cual significa que ahora empezamos el debate de las aportaciones nacionales y de las de la Comisión, y ahí se recogen una serie de parámetros y directrices cuyo objetivo es establecer un uso responsable de la inteligencia artificial, alineado con los valores democráticos. Y es en este respeto de los derechos y de las libertades individuales y colectivas que está el quid de la cuestión.

Porque, evidentemente, en nuestras manos está diseñar otra manera de entender la tecnología. La tecnología no es neutra, sino que la diseñamos las personas y debe ser hecha por y para las personas. Por tanto, nuestra visión desde España –y así lo estamos transmitiendo a la Unión Europea en todos los debates, y también a la OCDE y al G20– es una visión humanista, en que la tecnología debe estar centrada en las personas. Y es en estos debates donde tenemos un rol muy importante para poderlo hacer compatible.

Porque, ¿qué es lo que está planteando este reglamento? En primer lugar, se trata de un texto conjunto y de obligado cumplimiento por los Estados miembros, y ahí se proponen una serie de parámetros y reglas armonizadas en función del nivel de los sistemas de inteligencia artificial. Por primera vez se habla de sistemas de inteligencia artificial, y no de la inteligencia artificial como tecnología.

De la misma manera que, cuando se plantea esta normativa, no se está regulando la tecnología per se, sino que estamos regulando los usos concretos de estas tecnologías, lo cual es muy importante. Porque el objetivo no es regular por regular una tecnología que está en construcción y que tiene una capacidad de disrupción enorme en muchos ámbitos: si nos pasamos regulándola ex ante, podemos matar o limitar la capacidad de innovación.

Lo que considero positivo de esta propuesta de reglamento es definir, en primer lugar, unas reglas claras del juego, que sean compartidas, que nos ayuden a generar confianza y certidumbre, tanto entre la ciudadanía, como a los distintos agentes económicos y a las pequeñas y grandes empresas. Y esta regulación tiene para mí el acierto de este equilibrio entre no regular excesivamente ex ante y no regular la tecnología, sino sus usos.

Robot Sophia
Contenido relacionado: Inteligencia artificial versus inteligencia humana: ¿hacia dónde va el futuro?

En este sentido, el reglamento adopta lo que llamamos un “enfoque basado en el riesgo”. Se definen una serie de usos de la inteligencia artificial para garantizar su seguridad en aquellas aplicaciones de alto riesgo, aportando garantías de uso para las personas. Por ejemplo, en las infraestructuras críticas, como los transportes, no podemos tener la inteligencia artificial o un coche autónomo que no garantice la seguridad vial de las personas. También hemos de procurar que no haya discriminación o alto riesgo, por ejemplo, en los exámenes: que te evalúe un examen un algoritmo de inteligencia artificial con un sesgo que prive a una persona de su capacidad de acceder a la universidad. O en los temas de seguridad vinculados a la inteligencia artificial robótica, de acceso al trabajo a partir de los currículums, o en los servicios públicos esenciales. Imagínate que, en el acceso a la salud pública o a un crédito bancario, no quieras tener la segunda opinión de la intervención humana para saber si el algoritmo ha actuado con un sesgo.

Y luego hay los algoritmos de alto riesgo, que son inadmisibles y se prohíben bajo cualquier circunstancia, sobre todo lo que supone la manipulación de las personas a través del control o de la influencia subliminal en su pensamiento, los que tengan por objetivo manipular la voluntad del ser humano, todos los relacionados con el social scoring o “puntuación social”, que sabemos que ciertos gobiernos asiáticos están aplicando, o el uso indiscriminado del reconocimiento facial en los espacios públicos.

Estos son tres grandes ámbitos que la Unión Europea decide que son riesgos inadmisibles. Por tanto, creo que ahí la UE está definiendo su camino, que está muy lejos de otros modelos en el desarrollo de la inteligencia artificial.

También es verdad que, como se trata de algo tan innovador, tampoco puedes saber exactamente qué tienes que regular, y por ello se propone la creación de espacios de prueba, los llamados “areneros regulatorios”, con la idea de crear un entorno de prueba, de ensayo y error, que permita innovar y, a partir de esas conclusiones, ver cuáles son los riesgos y regularlos.

Los algoritmos de alto riesgo son inadmisibles y se prohíben bajo cualquier circunstancia, sobre todo lo que supone la manipulación de las personas a través del control o de la influencia subliminal en su pensamiento

Lo más importante es que, en estos espacios de riesgo que somos capaces de definir entre todos –y que, por cierto, son una matriz variable ya que, a medida que la tecnología vaya desarrollando nuevos ámbitos de riesgo, los podemos incorporar–, vamos a obligar que se cumplan unos requisitos de transparencia, de explicabilidad, de validación de que los datos de entrenamiento son correctos y no están hipersesgados, y que se observan ciertos parámetros de conducta ética.

En ese sentido, la Estrategia Nacional de Inteligencia Artificial del Gobierno ya incorpora algunos de estos puntos importantes en que pensamos que somos pioneros, como el sello de calidad de los algoritmos, que queremos que sea regulatorio, o un observatorio social del impacto de los algoritmos. Y creo que también tenemos que vigilar mucho en observar el impacto que todo lo que hagamos va a tener al final en la sociedad.

Como sabéis, si hay alguna contribución única que se está haciendo desde España es poner todo esto en el contexto de nuestra carta de derechos digitales. España está siendo pionera en el debate de cuáles son los derechos digitales que debemos preservar y ampliar en este entorno digital. Pues bien, hay una serie de derechos básicos, fundamentales, pero también dos capítulos de derechos específicos, uno vinculado a la inteligencia artificial, que es el derecho a no ser discriminado algorítmicamente, y luego los derechos vinculados a las neurotecnologías, eso es, el derecho a que no intercepten mis ondas neuronales o cerebrales y puedan captar mis pensamientos y manipularlos.
Creo que todos esos debates están definiendo un momento clave para España, pero también para Europa, y ahora es el momento de tener debates como este porque, si dejamos que la tecnología se desarrolle sin ningún control, cuando queramos poner cortapisas a su robustez, a su trazabilidad, a su seguridad y a su impacto ético y social, no tendremos tiempo de poderlo regular.

Desde este punto de vista, nosotros estamos totalmente en una actitud activa. Y si, durante mucho tiempo, España no había tenido una opinión propia en estos debates, hoy estamos marcando una posición en Europa. Hace poco, firmamos el D9, que era justamente una propuesta de inteligencia artificial más abierta y más innovadora, y ahora empieza justamente la etapa de hacer propuestas. Y, desde la posición de España, vamos a defender esta visión humanista de la tecnología, eso es, que se ponga en el centro la transformación de las personas y que la inteligencia artificial también sirva para reducir las brechas y mejorar la inclusión. Yo creo que esta es una oportunidad histórica que no debemos ni podemos permitirnos dejar pasar.

Si dejamos que la tecnología se desarrolle sin ningún control, cuando queramos poner cortapisas a su robustez, a su trazabilidad, a su seguridad y a su impacto ético y social, no tendremos tiempo de poderlo regular

[José Ignacio Torreblanca]: Muchas gracias, quisiera preguntarte sobre esto último que has dicho: los aspectos positivos de la tecnología para reducir brechas, para solucionar problemas, para generar valor y crecimiento económico, de forma inclusiva. Porque a veces tenemos la impresión de que hablamos demasiado del alto riesgo de la tecnología y tal vez deberíamos evitar que entre la opinión pública se extienda la percepción de que esta tecnología es intrínsecamente peligrosa.

Umberto Eco ya hablaba de apocalípticos e integrados, de quienes hablan siempre de la tecnología en términos negativos y quienes intentan utilizarla para producir bienestar social y ponerla al servicio del bien social. Para que alguien se haga una idea del riesgo, ¿qué porcentaje de los usos de la inteligencia artificial dirías que se sitúa en esta zona de alto riesgo que hemos de tener claramente definido y regulado y cuál forma parte de este mundo inmenso por explorar de beneficios y oportunidades económicas? ¿Cuál es el aspecto más positivo que destacarías de esta tecnología o de estos sistemas de inteligencia artificial? ¿Qué nos pueden aportar a la sociedad, en términos positivos?

[Carme Artigas]: En términos positivos, todos veremos una gran revolución tecnológica. Y aunque siempre hay quien va en contra del progreso tecnológico, si miramos las series históricas y los datos, observamos que siempre termina revertiendo en un mejor progreso y bienestar social y en una mejora de la calidad de vida. Lo hemos visto en el aumento de la esperanza de vida, en cómo la inteligencia artificial proporciona ganancias enormes en la productividad de las empresas y permite crear nuevos modelos de negocio, basados en los datos, que son mucho más ecológicos y menos contaminantes, así como desarrollar capacidades intelectuales superiores en el ser humano.

Como suelo decir, la robotización permite “desrrobotizar” al ser humano, porque nos libera de las tareas más automáticas y repetitivas. Aunque sí es verdad que la tecnología tiene ahora un nuevo impacto: aparte de aportar más eficiencia a los procesos o automatizar las acciones, también permite pensar. Y es en este ámbito donde nos sentimos más incómodos, porque es algo tremendamente novedoso: nos ayuda a tomar decisiones y ello nos obliga a rediseñar el rol del ser humano en este nuevo mundo digital.

Robot industrial
La robotización permite “desrrobotizar” al ser humano, porque nos libera de las tareas más automáticas y repetitivas (Foto: Seksan Mongkhonkhamsao)

Pero, evidentemente, estos cambios sociales y tecnológicos –lo vemos en el tema de la medicina personalizada– van a proporcionarnos mucha más esperanza de vida y calidad de vida, como también todos aquellos ámbitos que ahora se nos aparecen, cuyos beneficios todavía somos incapaces de ver; cuando se inventa la electricidad, nadie es capaz de prever todos sus usos futuros.

Por ello, cuando me preguntas qué porcentaje son acciones de riesgo, igual algo que hoy es riesgo mañana ya no lo es, porque el propio sistema tecnológico lo mitiga: antes nadie quería tener una gasolinera en su barrio porque podía explotar y ahora nadie duda de que puedes tener una gasolinera al lado de tu casa y no va a explotar.

Creo que hemos de tener muy poco miedo a la tecnología, porque tiene una gran capacidad de mejorar nuestra economía, nuestra sociedad y nuestra calidad de vida. Pero tenemos que tomar el control del diseño de esos sistemas, porque no puede ser que los sistemas amplifiquen los sesgos inherentes de la sociedad, que nos microsegmenten y nos limiten, que nos manipulen con fake news y polaricen la sociedad. En definitiva, la clave somos nosotros; debemos entender que la tecnología está a nuestro servicio y que nosotros hemos de ser capaces de aprovechar estas oportunidades, pues somos una generación de transición a caballo entre dos grandes transformaciones tecnológicas, entre un mundo que ya no nos sirve, con un modelo productivo y económico que ya está al final de su tiempo de vida, y un nuevo modelo que aún no está diseñado del todo.

Tenemos que tomar el control del diseño de esos sistemas, porque no puede ser que los sistemas amplifiquen los sesgos inherentes de la sociedad

Y en esta sociedad en transición que somos nosotros es donde hay más riesgo de que los beneficios y los costes de esas transformaciones digitales no se repartan equitativamente en la sociedad y generemos brechas, básicamente porque no permitimos el acceso o la democratización del acceso a esas tecnologías, a esos usos y a esos beneficios, pero también por otro tema muy importante: puesto que estas tecnologías inciden en la concepción del ser humano y en su capacidad de decisión, debemos tener a ciudadanos muchísimo más formados y muchísimo más informados. Y este es nuestro deber como instituciones públicas.

De ahí mi obsesión por vincular todo esto a capacitar a la ciudadanía en habilidades digitales. Este es uno de los planes que estamos impulsando desde la Secretaría del Estado: el Plan Nacional de Competencias Digitales, que no se refiere solo a las competencias tecnológicas para entender el mundo digital, sino también a las capacidades socioemocionales y, básicamente, a no dejar a nadie fuera. Y es ahí donde vamos a seguir trabajando desde la Secretaría del Estado, desde donde vamos a liderar la posición española en los próximos debates que van a haber.

De momento, hemos hablado de la propuesta de reglamento, pero hay dos paquetes más: uno que tiene que ver con el Plan Coordinador de Inteligencia Artificial, que es cómo desarrollamos capacidades de excelencia en inteligencia artificial en la Unión Europea, y también todo el reglamento sobre el uso de las máquinas. Por tanto, va a haber muchísimo tiempo por delante para debatir y, por supuesto, foros como este van a ser muy importantes para que entre todos definamos la posición que queremos como país.

[José Ignacio Torreblanca]: Muchísimas gracias, secretaria de Estado; muchísimas gracias, Carme. A quienes quieran seguir este debate y conocer al detalle los argumentos sobre esta tecnología, les recomiendo una tribuna de la secretaria del Estado Carme Artigas publicada en Diario.es el 22 de abril de 2021, donde desarrolla este tema.

Hemos hablado de la tecnología y ello nos da el vínculo perfecto para pasar a tratar de la regulación, a la “Edad Media” y al futuro de las instituciones. Para ello, tenemos la suerte de contar con Teresa Rodríguez de las Heras, profesora titular de Derecho Mercantil de la Universidad Carlos III de Madrid y miembro del grupo de expertos que han asesorado la Comisión Europea sobre los temas de responsabilidad, además de formar parte de otros muchos comités de asesoría y sobre tecnologías y regulación.

La pregunta que quisiera formular a la profesora Teresa Rodríguez de las Heras es: ¿Por qué necesitamos regular la inteligencia artificial de una manera tan específica y tan al detalle? ¿Qué no hay en el Derecho mercantil de toda la vida que no permita entender con los principios clásicos del Derecho qué es la inteligencia artificial y cuáles son sus riesgos? ¿Qué necesitamos y qué hace tan distinta esta tecnología para que tengamos que dedicar tanto tiempo a desarrollar con tanto detalle la regulación al respecto? Muchas gracias, Teresa.

En esta sociedad en transición es donde hay más riesgo de que los beneficios y los costes de las transformaciones digitales no se repartan equitativamente en la sociedad y generemos brechas

[Teresa Rodríguez de las Heras] Muchas gracias, Nacho, y muchas gracias, Toni, por la invitación. Es un auténtico placer, un honor y un privilegio compartir panel contigo, con la secretaria de Estado Carme Artigas y con Cecilia Álvarez. Me preguntas por qué ahora y cuáles son los motivos que hacen aparentemente necesaria, conveniente y urgente una regulación de los usos –y no la tecnología, como muy bien ha apuntado la secretaria de Estado– de la inteligencia artificial.

A mí me gusta describirlo de una manera muy gráfica. Tenemos la sensación de que nos encontramos en un punto de inflexión, es decir, percibimos que hay una marcadísima aceleración de la innovación tecnológica; observamos cómo un conjunto de tecnologías, que ciertamente no son nuevas, convergen con multitud de sinergias que las llevan a crear auténticos complejos y sofisticados ecosistemas tecnológicos en los cuales empezamos a percibir un importante potencial disruptivo. Y lo llamo punto de inflexión porque hasta ahora nos estábamos adaptando inevitablemente y estábamos incorporando la innovación tecnológica de manera natural, y así ha sido en las dos últimas décadas en particular, si nos referimos a la tecnología digital, en que ha habido una adaptación progresiva, serena, del derecho existente a la tecnología. Pero, en los últimos 3 o 4 años, percibimos un punto de quiebra; tenemos la percepción de que hay características de estas tecnologías y de sus usos que pueden producir una quiebra de los conceptos y de los principios existentes, en particular desde la perspectiva del derecho privado, del derecho de contratos, del derecho de la responsabilidad –como hito inicial, podríamos considerar la resolución del Parlamento Europeo sobre el Derecho civil de la robótica, en 2017.

En 2018, se constituye el grupo de expertos que asistimos a la Comisión Europea en materia de responsabilidad e inteligencia artificial y adoptamos el informe sobre un modelo de responsabilidad civil para la inteligencia artificial. El 20 de octubre de 2020, proponemos un reglamento sobre la responsabilidad civil de los sistemas de inteligencia artificial, y últimamente se ha producido esta iniciativa que ha dado, en cierto modo, forma a la importantísima respuesta regulatoria que quiere dar la Unión Europea a los usos de los sistemas de inteligencia artificial.

Acaso la pregunta importante sea: ¿Realmente, hay un cambio que requiera al menos repensar o reconsiderar los principios y las reglas existentes? En el grupo de expertos, desarrollamos un análisis que a mí me parece especialmente revelador, que consistía en tratar de identificar si la inteligencia artificial tiene características distintivas y, en particular, qué hay en la inteligencia artificial que, por ejemplo, pudiera hacer readaptar el régimen de responsabilidad.

Y ahora resumiré en un par de minutos cuáles serían estas características definitorias y, a la vez, “disruptivas” –utilizando el término de moda, de la inteligencia artificial. La complejidad –estamos hablando de unos sistemas extraordinariamente complejos, en todos sus aspectos–; los propios algoritmos; los propios ecosistemas, en cuanto a componentes, en cuanto a operadores y proveedores que tienen que participar en el funcionamiento de un sistema de inteligencia artificial; la opacidad –que, en realidad, implica esa idea de que estamos en cajas negras, que hay una serie de decisiones que se toman cuyos motivos y criterios pudieran no ser perfectamente conocidos por el usuario afectado por ellas, y esta opacidad inevitablemente afecta nuestra capacidad de ejercitar nuestros derechos, en caso de no estar conforme u objetar una determinada decisión. Hablamos también de vulnerabilidad: cuanto más complejos son los sistemas, mucho más vulnerables son frente a ataques a la ciberseguridad. NO es lo mismo hablar de una pequeña máquina de uso doméstico que de una flota de drones de reparto a domicilio.

Los sistemas de inteligencia artificial son cuerpos vacíos si no tienen la savia que son los datos

Hablamos, naturalmente, de otra característica muy interesante, que es la extraordinaria dependencia de los datos. Los sistemas de inteligencia artificial son cuerpos vacíos si no tienen la savia que son los datos; esto quiere decir que esta dependencia les hace muy vulnerables a la insuficiencia de los datos, a la incorrección de los datos, al sesgo de los datos. En cierta medida, dependemos de que los datos sean suficientes, variados e inclusivos y, desde luego, que no incorporen sesgos que pudieran ocasionar una discriminación.

Y acabo con una última consideración: la creciente autonomía. Hasta ahora, habíamos incorporado la idea de automatizar tareas y actividades a través, sobre todo, de los sistemas algorítmicos, pero ahora nos empezamos a dar cuenta de que incorporar sistemas de inteligencia artificial implica asumir técnicas de autoaprendizaje, con lo cual ya no hablamos solo de sistemas automáticos, es decir, predeterministas puros, sino de sistemas crecientemente autónomos, y esto en derecho privado implica dos cosas:

  • la primera, que diluimos la línea claramente marcada desde hace siglos entre cosas y personas, y empezamos a hablar de sistemas de máquinas con capacidad para tomar decisiones con un cierto margen de autonomía de decisión;
  • y, en segundo lugar, si hablamos de responsabilidad, incorporar la idea de autonomía implica hablar de imprevisibilidad, de un cierto margen de imprevisibilidad, es decir, de un cierto margen de desconexión del daño que se ha producido como consecuencia de esta decisión, del “sistema de inteligencia artificial” con respecto a lo que estaba previsto en el momento en que se diseñó y se puso en operación. Así pues, ¿por qué, ahora? Porque estamos en un punto de inflexión, al menos ante la percepción de que nos hallamos en un punto de inflexión.

[José Ignacio Torreblanca]: Muchísimas gracias, me parece muy interesante la descripción que has hecho de todas estas características distintivas. Supongo que eso explica, en parte, la avalancha regulatoria que tenemos sobre la mesa en múltiples frentes, desde hace mucho tiempo, desde el Reglamento de protección de datos. Ahora tenemos dos proyectos de regulación del mercado de los servicios digitales y la gobernanza de los datos; tenemos la ciberseguridad; ahora viene otra regulación sobre la inteligencia artificial.

Entendiendo las necesidades de regular todo esto, pero ¿hasta qué punto vamos a ser eficientes con toda esta avalancha regulatoria? ¿No vamos a tener solapamientos? ¿Podemos generar también incertidumbre, desde el punto de vista de la seguridad jurídica o de la innovación o de la creación de mercados? A veces, decimos que lo que necesitamos es crear ecosistemas de innovación empresarial. ¿Hasta qué punto te preocupa que la regulación sea eficiente o cercene las capacidades de innovación? Vamos a estar sometidos durante casi dos años a un proceso regulatorio intensísimo en el Parlamento Europeo, y después vendrá la adaptación por parte de los Estados... ¿Cómo vamos a salir de ahí con una eficacia regulatoria? ¿O bien el planteamiento es suficientemente abierto para que podamos ir corrigiendo las cosas por el camino?

[Teresa Rodríguez de las Heras]: No cabe duda de que percibimos una exuberancia regulatoria en los últimos años. Y es verdad que la Unión Europea ha adoptado en el orden mundial la posición de ser una referencia regulatoria, una potencia regulatoria. Y ello implica no regular mucho, pero sí regular bien. No me preocupa tanto la cantidad como la calidad y el acierto de las estrategias regulatorias. Creo que la clave está en dos aspectos: la coherencia y la estrategia.

En primer lugar, en un momento de aceleración y exuberancia regulatoria, la consistencia de los objetivos de la política legislativa es esencial. Probablemente uno de los efectos más perversos de una regulación fragmentada es su incoherencia, que pueda generar lagunas o inconsistencias entre las diferentes regulaciones. Por tanto, es importante tomar una decisión coherente, ciertamente basada en la especialización y que, por tanto, va a requerir abordar los problemas desde diferentes perspectivas. Porque, si se logra la coherencia del sistema en su conjunto, los riesgos de la cantidad muy probablemente quedarán minorizados o, desde luego, serán de importancia menor.

La Unión Europea ha adoptado en el orden mundial la posición de ser una referencia regulatoria, una potencia regulatoria

El otro elemento importante es la estrategia regulatoria. Hace un momento, yo me refería a las propuestas que hay en materia de responsabilidad civil a propósito de los sistemas de inteligencia artificial, y la secretaria del Estado se refería a esta perspectiva regulatoria basada en el riesgo de qué tipo de usos o aplicaciones de los sistemas de inteligencia artificial no están permitidos o solo en determinadas condiciones. Ello demuestra, en definitiva, diferentes estrategias regulatorias: la estrategia regulatoria basada en el derecho privado y, en concreto, en la responsabilidad es una estrategia regulatoria basada en asignar adecuadamente incentivos para que, sin ahogar la innovación, aquellos operadores que están en la mejor posición para mitigar, minimizar y controlar los riesgos precisamente tomen las medidas adecuadas y lo hagan con el incentivo de prevenir ser responsables.

Por tanto, nos encontramos, por un lado, con una estrategia regulatoria basada en asignar incentivos, es decir, con una estrategia regulatoria basada, en el fondo, en promover la innovación y hacerlo con el juego normal competitivo del mercado, y, por otro lado, una estrategia regulatoria basada en unos valores o en unos principios a la cual se ha referido la secretaria de Estado, que efectivamente decía que hemos identificado cómo queremos que sea la sociedad futura y, para ello, tenemos que identificar qué tipo de usos nos parecen de riesgo, pero detrás de esta valoración hay una valoración social, ética, basada en el modelo de sociedad que queremos construir. Si estos dos modelos se compenetran adecuadamente, habremos logrado un equilibrio perfecto entre promover la innovación, asegurar un mercado competitivo basado en las reglas propias del mercado y, a la vez, haber conseguido crear un marco regulatorio que refleja y asienta los valores que la Unión Europea quiere convertir en sus señas de identidad.

La cantidad no es el problema; lo es la calidad y, sobre todo, la consistencia entre las estrategias regulatorias. Este quizá sea el desafío más importante que la Unión Europea debe afrontar en los próximos años: ser capaz de consolidar este modelo, esta idea, esta estrategia de ser una potencia regulatoria basada en unos valores, en unas consideraciones éticas, entre tipos democráticos y modelos de tecnología con impacto social.

[José Ignacio Torreblanca]: Creo que esto nos lleva perfectamente a la tercera parte de nuestra conversación, con Cecilia Álvarez, directora de Política de Privacidad de Facebook. Ahora hablaremos de la parte industrial y posteriormente también, con un poco más de detalle, si queréis en el debate de las políticas industriales, también de la regulación y hasta qué punto sirve para crear o para mejorar las primeras industrias y para que sean exitosas. Y, a propósito de las industrias exitosas, aquí tenemos a Facebook, que ha conseguido estar en la punta de la innovación y de la generación de valor en estas tecnologías, pero también en este tridente del que hablábamos al principio de tecnología, instituciones y emociones.

Porque es precisamente a ese servicio dedicado a las personas, a la gestión de las emociones de sus expectativas vitales y de sus experiencias sociales a lo que se dedica Facebook. Así que nada mejor que continuar esta conversación contigo, Cecilia, para preguntarte, desde vuestro punto de vista en el mercado de las relaciones institucionales y de las emociones, ¿cómo debe ser una regulación que fomente la capacidad de innovación y la excelencia, pero también la seguridad y los derechos de los varios miles de millones de personas que manejan, acceden y se relacionan con el mundo a través de vuestra plataforma?

[Cecilia Álvarez]: Muchísimas gracias, Nacho. Muchas gracias a Esade y a Toni por invitarme hoy a compartir panel. Me hace ilusión no solo por la calidad de las otras ponentes. Parece mentira que seamos mujeres, como has dicho, y que estemos en un entorno tecnológico. Y la verdad es que también me resulta muy grato poder compartir ese elemento.

Quisiera introducir tres grandes elementos en la respuesta a tu pregunta, Nacho. Uno es cómo se vive la inteligencia artificial en una empresa como Facebook, donde se utiliza la inteligencia artificial, para luego pasar a responder más directamente tu pregunta sobre el papel de la regulación y qué tipo de regulaciones la industria puede estar esperando, para contribuir a favorecer la innovación en ese mundo donde nos gustaría que la tecnología estuviera al servicio del hombre.

Así que voy a empezar por el principio. Seguramente hay algunas personas aquí que son usuarios de las redes sociales, como Facebook, y otras que no. Así que quisiera empezar a hablar de cómo se utiliza la inteligencia artificial. Probablemente, la parte más evidente es optimizar que los anuncios lleguen a los distintos usuarios y, definitivamente, los sistemas de inteligencia artificial están ahí para lograr esa optimización.

Hay otra parte tal vez menos evidente, que es que los contenidos no pagados, no publicitarios, los contenidos que generan otros usuarios, también sean personalizados a los efectos de que los usuarios reciban una experiencia única y cercana a sus intereses sobre cómo quieren utilizar las redes sociales y, en particular, Facebook. Es lo que se llama newsfeed, que no sé traducir al castellano, eso es, los contenidos que uno recibe en el día a día.

Otra parte menos evidente pero sumamente importante en una red social como Facebook es la de seguridad, en el sentido más amplio de la palabra, que permite asegurar, aunque su objetivo es permitir que haya integridad en las cuentas, que haya una detección temprana o una reacción temprana a daños que algunos usuarios, por ignorancia o a propósito, pueden causar a otros usuarios, ya sea en el ámbito del terrorismo, ya sea en el ámbito de las cuestiones de odio, ya sea en el ámbito de la explotación infantil. Hay muchas acciones y se invierte enormemente en que la inteligencia artificial sirva a estos propósitos, aunque probablemente es algo que los usuarios perciben menos –y deben percibir menos, porque forma parte de unos sistemas que están actuando casi entre bambalinas, para que el contenido que uno tenga sea un contenido limpio, en el sentido de que no sea dañino para el resto de los usuarios.

Esta es quizá la parte ad intra, la parte de los productos de Facebook, pero existe también una parte ad extra: uno no crea focos de excelencia solamente estando uno en su torre de marfil, sino que debe invertir y, desde luego, la empresa invierte enormemente en excelencia investigadora, en la investigación con terceros. En su momento, creó un sistema de puesta a disposición de fuente abierta, y sigue trabajando en él.

En Facebook sabemos que la tecnología sirve para lo bueno y también para evitar ciertas cosas que son particularmente dañinas, así que también invertimos en IA for good, en particular en cuestiones relacionadas con la covid-19

Invierte enormemente también en investigación independiente, en particular en el partnership sobre IA. En concreto, ha participado en un proyecto muy importante en relación con la detección de deepfake, y hablo de esto en España en particular porque la verdad es que me llamó mucho la atención un anuncio reciente que es una reproducción como si Lola Flores estuviera todavía entre nosotros y nos hablara del acento. Para los que sabemos quién es Lola Flores, no cabe duda de que se trata de una recreación, pero obviamente esto puede ser utilizado por otro tipo de manipulaciones que probablemente son las que el proyecto de la Comisión Europea está tratando de evitar.

Otro proyecto de partnership sobre IA que cuenta con la participación de empresas y de organizaciones no lucrativas de más de 13 países se centra en los memes de odio. Sabemos que la tecnología sirve para lo bueno y también para evitar ciertas cosas que son particularmente dañinas, así que también invertimos en IA for good, en particular en cuestiones relacionadas con la covid-19, en que se han publicado multitud de mapas con datos anónimos para ayudar a la investigación y para ello se ha colaborado con universidades europeas, norteamericanas y de otras regiones, para ayudar a poner a disposición de los científicos la tecnología de que disponemos y así poder tener mapas de prevención o de análisis de cómo se distribuye la covid-19.

Con ello, vemos la importancia de IA en cómo se gestionan los productos, cómo se procura que haya seguridad en la red y cómo se invierte trabajando con otros actores para poder investigar en mejorar la inteligencia artificial y servir mejor a los propósitos que se persiguen.

Y, para ello, la regulación tiene un papel importantísimo. Comparto plenamente la mayoría de las cuestiones que mis predecesoras en el uso de la palabra han manifestado en cuanto a la regulación y muchos puntos de la regulación que se está proponiendo desde la Unión Europea.

Como industria, buscamos una regulación que persiga esta fearness, un vocablo muy difícil de traducir al castellano; que busque la transparencia, la accountability, otra palabra de difícil traducción a nuestro idioma.

Yo distinguiría, pues, cuatro grandes principios que buscamos en una regulación:

  1. Que esté basada en unos principios.
  2. Que esté basada en el riesgo: esta es una cuestión que ha sido muy importante el período de consulta pública. En muchas ocasiones, vemos que las consultas públicas son casi como un “tick in the box”, como algo que hay que hacer, pero sin prestarle demasiada atención. Definitivamente, creo que la Comisión Europea sí ha prestado mucha atención a la cantidad de comentarios que no solo desde la industria, sino también desde la academia, se han ido manifestando en relación con estos dos puntos, y ha habido cambios muy relevantes y positivos con respecto a lo que se proponía en el Libro blanco y lo que es esta propuesta de la Comisión en cuanto a la regulación.
  3. También que sea flexible y adaptativa, en el sentido que permita aquellos espacios de prueba a que se refería la secretaria de Estado, de modo que la regulación no solo sea algo que se imponga, sino que forme parte de un trabajo conjunto. Creo que los espacios de prueba son muy necesarios en unas tecnologías y en unos cursos que no podemos prever todavía, pues nos permiten corregir el tiro sobre cuestiones que no deberían hacia donde van, o bien ahondar en cuestiones que pueden ser beneficiosas para la sociedad.
  4. Y el último es que sea coherente, y esta es la parte difícil. Creo que Teresa lo ha articulado muchísimo mejor que lo que yo pudiera hacer.

Obviamente, como mi perfil es jurídico y de privacidad, creo que, al enfrentarnos a la inteligencia artificial, no necesariamente hay que volver a recrear nuevos cuerpos jurídicos, sino también pensar en los que tenemos y, en vez de duplicar o de tener una regulación contradictoria, entender qué es lo que tenemos y cómo podemos utilizar una normativa que tanto ha costado y que, con sus defectos, también tendrá muchos aciertos.

Cuando antes hablaba de lo importante de la consulta pública, creo que estamos entrando en un mundo tan “disruptivo” –como decía Teresa– que necesitamos un alto grado de consenso, eso es, un trabajo de todos, no un trabajo de unos contra otros. Y para ello necesitamos esos espacios, para poder discutir entre todos y, al final, poder mejorar la regulación que tenemos.

Y, cuando hablabas antes de que tenemos la tecnología de los dioses y las instituciones de la Edad Media, pues creo que la Edad Media también tiene una parte de luz, y no solo aquella parte oscura; es más, las mujeres tenían mucho más poder que en siglos posteriores, así que no veo tan malo eso de la Edad Media. Hay un libro que ahora no viene a cuento, titulado Las mujeres en los tiempos de las catedrales, que ilustra esta parte nada oscura de la Edad Media. Y quiero terminar destacando la importancia de que la regulación sea innovativa: no solo tenemos innovación en la tecnología, sino también en la forma en que hacemos política, en el sentido de la regulación y hacia dónde vamos.

Los “areneros” son, a mi entender, una de esas fórmulas, sin duda, pero para que un arenero funcione tiene que haber incentivos, como decía Teresa, y no solo anunciar que existe. Tiene que haber incentivos para que los utilicen las distintas industrias y no tan solo las grandes corporaciones, sino pensando de nuevo en que estamos construyendo juntos.

Estamos entrando en un mundo tan disruptivo que necesitamos un alto grado de consenso, eso es, un trabajo de todos, no un trabajo de unos contra otros

Hay una iniciativa que es una especie de “pseudoarenero”, la open loop initiative de Facebook, que es interesante como programa de cocreación que permite tener un input basado en la evidencia y en que hemos estado trabajando, por el momento, con start-ups. No es, pues, un trabajo exclusivo de Facebook como gran corporación, sino que trata de testar entornos regulatorios ya existentes. Ahora podría aplicarse, sin duda, a la nueva propuesta de regulación, para ver qué es lo más difícil y lo menos difícil de entender, para empresas de todo tipo de pelaje, en el sentido de recursos, al efecto de abordar una regulación que, como decía Teresa, es compleja en sí, y no solo los usos, porque entramos en cuestiones difíciles.

Hemos impulsado ya una iniciativa con start-ups en Europa, sobre el asesoramiento del riesgo, y estamos impulsando otras sobre transparencia y explicabilidad en otras regiones del mundo.

Otro “pseudoarenero” son los design jams, otra fórmula innovadora que conocí en Facebook y una de las que más me han impactado. Son discusiones desde el punto de vista del diseño, que tratan de cómo el diseño ayuda o desayuda a poder trasladar las obligaciones regulatorias o los planteamientos éticos, porque no todo está en la norma, como decía la secretaria del Estado, sino también en los planteamientos éticos, que también deben estar presentes en cómo nos enfrentamos a estas cuestiones.

Y para que esos design jams funcionen, buscamos la inclusión, en el sentido de que no solamente estamos nosotros, ni mucho menos: nosotros somos el germen y el dinero que ayuda a poner en marcha que haya académicos y que haya diseñadores, porque esto se basa en el diseño, que haya ingenieros y que haya gente como yo, en el sentido de perfiles jurídicos, perfiles de policy, de un gran número de países y de las distintas regiones del mundo, y entre todos buscamos solucionar un problema muy concreto que tenemos a través del diseño; en este caso, de explicabilidad, de transparencia o de asesoramiento sobre el riesgo, y buscamos que cada una de estos cerebros se pongan en marcha y que, a través de un diseñador que tenemos en cada una de las mesas de trabajo, traten de acabar un prototipo de diseño que solucione un problema muy concreto, y sus resultados son muy visibles y accesibles, para que la comunidad pueda disfrutar y seguir aprendiendo con nosotros.

Todo esto se diseña a partir de un laboratorio denominado Trust, Transparency and Control Labs (TTC Labs), que no es exactamente un arenero pero tiene, sin duda, elementos de ellos. Son fórmulas de testar de forma inclusiva, con perfiles de características muy distintas, en que aprendemos mucho y esperamos también contribuir mucho, y creo que todos los participantes repiten siempre que pueden, porque realmente sientes que obtienes algo concreto al final y que es el resultado de un consenso.

[José Ignacio Torreblanca]: Estupendo. Todas estas experiencias concretas que han ido saliendo resultan muy interesantes y creo que, en parte, ya has respondido algo que te quería preguntar a continuación, con lo cual, si te parece, podríamos abrir el debate. En concreto, quería preguntarte sobre el tema de las convergencias o las divergencias regulatorias, en el sentido de que, cuando la Unión Europea hace una regulación, la hace para la Unión Europea y, cuando se hace para el mercado español, aunque esté integrado efectivamente en el europeo, se hace una regulación específicamente nacional o con singularidades. En cambio, cuando eres una plataforma y una organización global, ¿cómo articulas la diversidad, no solo desde el punto de vista regulatorio o legislativo, sino de los factores éticos y morales? Es decir, ¿cuán difícil es diseñar una máquina moral que sirva, si encima tienes que filtrarla por culturas y tradicionales, y no solo por leyes diferentes? Hemos visto que estamos volviendo a la filosofía clásica, a la Grecia clásica, porque todos aquellos parámetros de pensamiento vuelven a ser útiles para entender qué es la ética y cómo funcionan los sistemas.

La globalización ha permitido que haya ciertas cosas en que convergemos más de lo que pensamos

Muy brevemente y si quieres, sobre este tema de cómo armonizar o cómo trabajar con tantas diferencias, danos algún detalle de qué visión tenéis en Facebook. ¿Cómo podéis tener una ética o armonizar distintos estos requerimientos, o bien tenéis que trabajar para adaptarlos a cada país, lo cual supone un desafío tremendo de adaptabilidad a cada cultura, tradición o sistema regulatorio?

[Cecilia Álvarez]: Es una pregunta de difícil respuesta. Creo que he asesorado a muchas multinacionales, antes del entorno farmacéutico, muy regulado, y ahora de un entorno de otras características, como es el tecnológico. Y, ciertamente, toda multinacional o empresa que tenga negocio y presencia en distintos países del mundo sueña con la armonización regulatoria a escala internacional, pero eso nunca ocurre en realidad. Pese a ello, uno va viendo que la globalización ha permitido que haya ciertas cosas en que convergemos más de lo que pensamos.

A veces, con quien más nos peleamos es con los vecinos; pienso en el Barça y el Madrid o en el Olympique de Marsella y el Paris Saint-Germain. Y, al final, cuando veo la regulación norteamericana y la regulación europea, pese a que en muchas cosas difieren, hay grandes elementos que nos unen, en cuanto valores e historias vividas y en cuanto al respeto por la ley.

Esas son cuestiones en que creo que debemos ahondar más. No sé si ahora se llama “pacto trasatlántico” o hay otro concepto para ello, pero creo que es un entorno ahora mismo en que tenemos muchos elementos en común para trabajar sobre un modelo. Antes la secretaria de Estado hablaba de entornos prohibidos o de usos prohibidos en la regulación y se refería al social scoring que existe en algunas regiones del mundo. Son cuestiones que en Europa causan mucho desasosiego, y con razón, y ese mismo desasosiego lo causan en los Estados Unidos. Y creo que ninguno de los principios que se han mencionado en esta charla hasta ahora resultan extraños a ninguno de los países del Atlántico. Aunque ello no significa, desde luego, que sea fácil acercarnos a ellos.

Pero uno de los elementos es el equipo humano: cuanto más diversos e inclusivos sean los equipos humanos que trabajen en tu compañía, mejor. Porque, además de tener en cuenta la regulación precisa, al final todas las regulaciones tienen un aspecto ético y un posicionamiento de valores, ya sean de propiedad intelectual, de protección de datos o sobre la inteligencia artificial.

[José Ignacio Torreblanca]: Me parece que sobre esto hablabas tú, Carme, en tu artículo sobre la soberanía digital europea, en que decías que el dato es la savia. Tú hablas ahí de la soberanía de los datos y del modelo europeo. Si te parece, te escuchamos con mucho gusto.

En este momento hace falta una colaboración entre el sector privado y el sector público para encaminar realmente el desarrollo de una inteligencia artificial más ética

[Carme Artigas]: A raíz del comentario de mis dos compañeras, lo que es muy importante es la relevancia de la opinión sobre los avances tecnológicos que tiene Facebook, por ejemplo, pues son al fin y al cabo quienes tienen el problema y a veces no puedes esperar que sean ellos quienes lo resuelvan. Creo que en este momento hace falta una colaboración entre el sector privado y el sector público, justamente para encaminar realmente el desarrollo de una inteligencia artificial más ética.

Las grandes potencias tecnológicas han tenido quince años de desarrollo sin ninguna cortapisa para poder adquirir todos los datos personales de toda la movida y desarrollar los mejores modelos de inteligencia artificial posible. Y ahí es donde se presenta ahora la necesidad de regular la inteligencia artificial no solo en su uso, sino también las propias plataformas digitales. En este sentido, la Unión Europea, además de su reglamento, también está aprobando la Digital Services Act (DSA) y la Digital Markets Act (DMA).

Ponía un ejemplo muy valioso Cecilia: cuando se creó Facebook en 1997 era una red universitaria que dejó de ser una red social universitaria para convertirse en una plataforma de comunicación, y al principio tú no exigías que Facebook fuera responsable de ningún contenido que estuviera en esa plataforma, porque en principio era solo un canal. Pero, de la misma forma que decíamos que, cuando se crea la electricidad, nadie prevé los usos que posteriormente se podrán desarrollar con ella, lo mismo ocurre con las plataformas digitales: nadie preveía las grandes derivadas que ha tenido su uso, la gran influencia que pueden tener en las personas, y ahora se dice que, independientemente de lo que se publique y de quién lo haga, ellos tienen la responsabilidad de garantizar que las personas que publican en ella no sean fakes y de que allí no haya ninguna actividad delictiva.

Les estamos exigiendo mucho, pero les estamos exigiendo lo mismo que cuando los bancos decían: “Es que yo solo muevo dinero, a mí tanto me da si el dinero viene de un sitio o de otro”. Y nosotros les contestamos: “No, tú tienes la responsabilidad de que ese dinero que se mueve no venga del narcotráfico; tú tienes la responsabilidad de saber que el titular de la cuenta es quien dice ser".

Digo esto porque estamos aplicando en este momento a las plataformas digitales una serie de obligaciones como también hacemos con la banca cuando su dimensión deja de ser meramente una dimensión tecnológica y entra casi en una dimensión de monopolio.

Las actuales plataformas son monopolios, pero no porque concentren una actividad económica única, sino porque tienen datos que no tiene nadie

Evidentemente, todos sabemos que las actuales plataformas son monopolios, pero no porque concentren una actividad económica única, sino porque tienen datos que no tiene nadie, y no son monopolios porque lo quieran sino porque de facto lo han sido, basándose en una no regulación.

Yo creo que esto debe converger en un punto de equilibrio para el bien de todos: para el bien del mercado y para el bien del desarrollo tecnológico. Perdonadme que sea provocadora, porque creo que para eso está el debate. De la misma manera que cuando se inventó el ferrocarril llegó un momento en que dijimos: “Usted que ha hecho las vías de ferrocarril por favor deje pasar también a otros ferrocarriles”; hemos obligado a Telefónica, cuando invertimos para que tuviera las mejores redes de fibra: “Si usted quiere ser un monopolio, debe permitir que en sus redes de telecomunicaciones también operen los operadores móviles virtuales”.

Yo soy partidaria de que los grandes gigantes tecnológicos deban ceder sus datos de entrenamiento a otros traders, porque nunca si no va a existir ni siquiera la posibilidad de generar un solo competidor, y, de hecho, ahí está el debate: qué tenemos que exigir en las plataformas digitales y qué tenemos que hacer para regular ese mercado de los conductores de Facebook, de Instagram, que lo son todo pues no existe alternativa de mercado posible.

Yo doy la bienvenida a que el sector tecnológico está colaborando muchísimo mano a mano con la Unión Europea y con la Comisión en todos estos debates, porque también afecta el futuro de su negocio, el futuro que la percepción social. Y hay cosas que quizá por ley son posibles pero que las personas ya no toleran.

Tenemos que entender que la concepción de ética de las personas y del valor de sus datos también ha evolucionado: hemos pasado de ser un mundo naíf, donde reclamábamos los datos por una cuenta de correo gratuita, cuando nos hemos dado cuenta de que no lo pagamos con dinero, sino con datos.

Y eso lo está promoviendo la Unión Europea y por ello el desarrollo de la inteligencia artificial no va a ser igual en todas las partes del mundo. Pero yo quiero introducir a esta reflexión no como una crítica, sino como lo que realmente ha pasado. Y el punto donde estamos ahora la industria y los gobiernos, trabajando juntos para que eso tenga un mejor equilibrio, sobre todo desde Europa, es positivo: que la propia industria se preocupe por la regulación y por el equilibrio de que ese desarrollo lógico al final tenga una coherencia con los principios y valores.

Los datos son de las personas, son de los ciudadanos, y queremos que lo sigan siendo

Y en ese sentido que lo decía, porque estamos hablando de inteligencia artificial y no de datos. Y la inteligencia artificial no se puede desarrollar si no hay datos, y la gran diferencia de Europa es que estamos diciendo: los datos no son de las empresas, como es el main chat de los Estados Unidos; los datos no son de los gobiernos, como es el main chat de China; los datos son de las personas, son de los ciudadanos, y queremos que lo sigan siendo. Que esto no genera ventajas competitivas, me es igual: es como decir que es más barato trabajar con esclavos o con niños: ¡claro que es más barato! Y también lo es trabajar sin derechos humanos, pero es que este no es nuestro modelo.

Ahí es donde está Europa y de ahí no nos vamos a bajar. Y cuando hablamos de soberanía digital europea, significa que queremos reclamar una determinada manera de desarrollar un mercado tecnológico en Europa, a pesar de los costes que ello implique. Por otra parte, pensamos que hay también más oportunidades. Antes hablabas de Grecia y, de hecho, al final la democracia se convirtió en una ventaja competitiva, porque todo el mundo quería ir allí. Pues lo mismo creo que va a pasar con la inteligencia artificial: vamos a ser capaces, desde Europa, de atraer talento, atraer inversiones y atraer capacidades, justamente por nuestra visión humanística.

Y, en este punto, evidentemente Europa ha estado mirando hacia otra parte en los últimos 10-15 años: no nos dábamos cuenta de que lo digital era lo que iba a cambiar la industria, porque después de la crisis de 2008-2010 estábamos intentando salvar nuestra industria y no estábamos mirando la oportunidad de lo digital, aunque la gran compañía que marca el punto de inflexión en el desarrollo del deep learning, que es DeepMind, era una empresa inglesa con 14 doctores británicos en inteligencia artificial, que Google adquiere por 500 millones de euros en 2014. Y nadie en Europa sabía ni que existía esa empresa ni se había fijado en ella como gran impulsora del cambio que ha venido después con la inteligencia artificial.

Pero en Europa tenemos muchas cosas pendientes y, además, la pandemia ha puesto de manifiesto nuestras excesivas dependencias de terceros países, tanto en el ámbito de la cadena de suministro como en el ámbito tecnológico, por ejemplo en la producción de chips. Y ahí se están articulando grandes proyectos europeos de colaboración para que Europa recupere esta soberanía digital con vista a tener mayor competitividad y también menos dependencia de algo tan estratégico como es la tecnología y su desarrollo futuro.

La pandemia ha puesto de manifiesto nuestras excesivas dependencias de terceros países, tanto en el ámbito de la cadena de suministro como en el ámbito tecnológico, por ejemplo en la producción de chips

[José Ignacio Torreblanca]: Seguro que Cecilia quiere también contestar, pero quisiera dar primero la palabra a Teresa, porque hemos hablado de este modelo de autorregulación del tablón de anuncios y luego de los códigos de conducta, y ahora estamos metidos en una regulación completa. ¿Cuál es tu visión de este momento, de esta convergencia o divergencia regulatoria, Teresa?

[Teresa Rodríguez de las Heras]: Yo creo que el debate de fondo es absolutamente extraordinario y apasionante, porque hasta ahora, cuando estábamos en modelos puramente transnacionales, de actividad transnacional, de actividad internacional, la estrategia de regular para competir todavía era viable. Se producía un efecto de competencia regulatoria: si yo regulo de forma laxa, atraigo a una compañía reticente a adoptar una regulación más estricta. Por eso, cuando se regulaba, siempre había la preocupación de si estábamos regulando demasiado y dejando de ser competitivo.

Pero está claro que regular plataformas ya no es regular una actividad internacional; es mucho más: es una actividad digital. Es decir, hemos entrado en el terreno de la digitalidad y, en este ámbito, no tiene sentido competir por regular. En mi opinión, hay dos maneras de hacerlo: la primera, de la cual soy una gran defensora, es la armonización internacional, y de ahí que trabajemos en las Naciones Unidas para crear los marcos más globales y universales posibles de principios, y luego está esa manera europea de regular por convencimiento.

Me parece que es el enfoque que debemos adoptar, es decir, nosotros regulamos, por ejemplo, con el Reglamento general de protección de datos, con todas estas decisiones de la DSA y la DMA, con este modelo de inteligencia artificial, tratando de elaborar modelos regulatorios convincentes y que, por tanto, se tomen como referencia en otros países, y se produzca una especie de armonización de abajo arriba: otros países perciben el valor que tiene regular conforme a estos principios y, por tanto, empiezan a incorporar principios similares y así se produce de facto una magnífica armonización natural.

En mi opinión, esta es la única manera de abordar la digitalidad, en este nuevo entorno en que lo transfronterizo, lo internacional, ya ha perdido sentido, pues todo es digital y todo ocurre en el espacio digital.

[José Ignacio Torreblanca]: De hecho, estamos viendo, Cecilia, que también en Estados Unidos el cambio de administración ha permitido que llegara a ella algo que ya estaba en la sociedad, en los estados y en muchas regulaciones. Ciertamente, ya había una convergencia regulatoria en parte entre Europa y los Estados Unidos antes de la Administración Biden, pero estaba por abajo y ahora está aflorando en el Congreso, en la Cámara y en la Administración. Parece, pues, que vamos hacia una cierta armonización o, por lo menos, a una negociación de esta convergencia regulatoria.

[Cecilia Álvarez]: La verdad es que tengo el convencimiento de que está iniciando una nueva era en los Estados Unidos, con unos indicios de mayor acercamiento en las cuestiones compartidas con Europa. Y espero que no solo sea un convencimiento personal, pues veo que hay muchas cabezas que están pensando probablemente algo parecido.

Me gustaría tomar tres puntos que tanto la secretaria de Estado como Teresa han puesto de manifiesto. Una se refiere a las bolsas de datos que tienen las plataformas, que sin duda son importantes porque forman parte, como decía Teresa, de la savia, de cómo funcionan y del tipo de negocio que tienen, aunque no son las únicas. Cuanto más digital se hace cualquier negocio de cualquier sector, la calidad y la cantidad de los datos generados pasan a ser cada vez más importantes, así que no pensaría que las únicas que disponen de datos son las plataformas digitales.

Cuanto más digital se hace cualquier negocio de cualquier sector, la calidad y la cantidad de los datos generados pasan a ser cada vez más importantes

Tenemos una dificultad inherente al hecho de vivir conforme a unos valores, porque tratar con valores como derechos fundamentales implica siempre hallar un balance entre la competencia y la periodicidad, que es un equilibrio muy importante. Y pienso en cómo compartir datos con otros sectores para favorecer la competencia –lo cual está en el núcleo de lo que fue un derecho que se creó en el GBPR, el derecho a la portabilidad, basado en realidad sobre lo que ocurría en el sector de las comunicaciones en su momento–, aunque ciertamente es muy distinto aportar un dato que aportar contenidos, vídeos, tu gráfico social...

Es mucho más difícil saber en qué punto tenemos la capacidad de poder compartir datos con terceros, al efecto de favorecer la competencia en nuevos modelos de negocio, y cómo hacerlo de forma respetuosa y adecuada en relación con estos usuarios, que tienen algo que decir acerca de cómo se comparten esos datos con terceros. Y este es un equilibrio difícil de lograr y en que necesitamos que no sean las empresas quienes decidan solas, sino que formen parte de un consenso sobre cómo proceder correctamente.

En el sector financiero, eso ya se ha empezado a hacer. Lo hemos intentado, pero tenemos siempre mucho cuidado, y debemos de tenerlo en relación con la investigación científica. Antes os decía lo que hacemos en IA for good: hay muchos proyectos que se hacen así, pero, cuando das datos anónimos, se puede hacer en parte, pero no todo funciona; no todo el valor lo vamos a sacar con datos anónimos, pues los datos tienen mucho valor científico y, cuando se anonimizan –eso lo he visto mucho en el sector de la salud, donde he trabajado durante muchos años en investigación científica con datos anónimos– pierden una capacidad enorme. Por ejemplo, cuando antes hablaba la secretaria de Estado de la medicina personalizada, es evidente que si es personalizada no es anónima. Con ello quiero decir que tenemos que pensar también que no se puede regular desde el miedo, sino pensando en cuál es el objetivo que queremos alcanzar.

El segundo punto que quería introducir se refiere a los contenidos, a la responsabilidad de los contenidos. Sin duda nadie podía imaginar de la red universitaria lo que es ahora el mundo, pero las plataformas no han de esperar a tener una regulación para invertir, en este caso, en inteligencia artificial. No hay ningún incentivo económico en tener una red sucia, con contenidos desagradables; nadie quiere estar en un sitio donde hay cosas que son desagradables para ti... y “desagradables” es el primer escalón hacia cosas más terribles y horribles, pues en las redes también se generan contenidos tremendos.

Así pues, hay un incentivo per se de negocio, si me apuras, en no tener unas redes que no ofrezcan safety, y hay también un incentivo ético. Y tienen que ir acompañados de un incentivo regulatorio que tenga en cuenta cómo han ido operando las plataformas. No tiene sentido empezar de nuevo a regular, como un elefante en una cacharrería, sin tener en cuenta todo lo que se ha invertido y lo que ya hemos aprendido todos en esta lucha contra el mal.

Y en cuanto al último punto, regular por convencimiento, no puedo estar más de acuerdo. Creo que entre la auctoritas y la potestad me quedo aquí con la primera, que es la forma que tenemos de regular mejor y de lograr esa armonización de facto. Pero, para tener convencimiento, necesitamos también que esas consultas públicas no sean para cubrir el expediente, sino que funcionen de verdad, es decir, que haya un verdadero consenso en el cual la industria y la sociedad civil participen de forma activa en cómo vamos a regular esta materia. Así que insisto de nuevo: “arenero” o cualquier otra fórmula, pero necesitamos que las consultas públicas no sean un mero ticking the box, sino que necesitamos formar parte de ellas, pues tenemos mucho que apretar y mucho que aprender también.

[José Ignacio Torreblanca]: La tecnología y las instituciones, los seres humanos, tres ponentes de lujo y tres expertas en estas cuestiones. Y también necesitamos centros de pensamiento como Esade, al cual damos las gracias por convocarnos. Os despido también en nombre de Toni Roldán de Esade y os doy las gracias porque ha sido un debate interesantísimo. Hasta muy pronto y muchísimas gracias.

[Carme Artigas]: Muchas gracias a todos.

[Teresa Rodríguez de las Heras]: Muchas gracias a todos.

Todo el contenido está disponible bajo la licencia Creative Commons Reconocimiento 4.0 Internacional.