¿Cómo debería regularse la relación entre robots y humanos?

Por Foro de Humanismo Tecnológico

Escuchar el podcast en Spotify | Apple Podcasts | Google Podcasts

Los robots y la inteligencia artificial están impulsando sus propias leyes. ¿Cómo debería regularse la robótica para garantizar una relación positiva entre robots y humanos y evitar los riesgos de una inteligencia artificial sin límites?

En este podcast, José María Lassalle, director del Foro de Humanismo Tecnológico de Esade, e Iñigo Navarro, decano de la Facultad de Derecho de ICADE, reflexionan sobre la urgencia de desarrollar una normativa que garantice una convivencia pacífica entre robots y humanos y sirva para dar respuesta a los grandes desafíos que plantean la robótica y la inteligencia artificial.

TRANSCRIPCIÓN

José María Lassalle: Buenas tardes a todos y a todas. Bienvenidos a un nuevo podcast del Foro de Humanismo Tecnológico de Esade, que trata de aproximarnos a una reflexión profunda sobre los retos que está planteando la transformación digital; retos que ya se planteaban antes de la pandemia y que ahora se están acelerando con nuestra experiencia cotidiana con la tecnología, porque vivimos dentro de ella y cada vez nos estamos sumergiendo más en esa realidad.

Soy José María Lassalle, director del Foro, y hoy tenemos con nosotros a Iñigo Navarro, miembro del consejo asesor del Foro de Humanismo Tecnológico, decano de la Facultad de Derecho de ICADE, experto en derecho mercantil y una persona que en estos momentos está trabajando a fondo sobre cuestiones que tienen que ver con un tema que está muy de actualidad: los robots, que junto a los sistemas de inteligencia artificial, están transformando nuestra sociedad y provocando una serie de cambios estructurales, culturales, sociales y económicos, que están cambiando los paradigmas sobre los que hemos organizado nuestra vida hasta el momento.

Frente a estos retos, el derecho tiene que tomar posición. Por eso está hoy con nosotros Iñigo, porque está reflexionando sobre este tema y preparando un proyecto que en breve dará pie a un libro que seguro será extraordinariamente interesante. Iñigo, ¿por qué el derecho tiene que abordar de manera urgente una regulación sobre la robótica?

Iñigo Navarro: En primer lugar, muchas gracias a ti como director en alma, cuerpo e inteligencia artificial y natural, física y química, del Foro de Humanismo Tecnológico. Y muchas gracias a Esade, universidad hermana de la universidad en la que me encuentro, que es ICADE, como alguno habrá reconocido por nuestro fondo típico. Es una alegría estar aquí con ustedes y poder hablar sobre los robots, el derecho, la inteligencia artificial y el entramado que conlleva. ¿Por qué? Me pregunta usted. Porque vivimos dentro de la tecnología. Hay una frase hecha, que a mí no siempre me gusta y no siempre creo que sea verdad, que dice que el derecho siempre está por detrás de la realidad. No me gusta mucho porque el derecho no está por detrás de la realidad: el derecho es realidad.

El derecho tiene que vivir inmerso en la realidad tecnológica y dar respuesta a los grandes retos que plantean los robots y la inteligencia artificial

El derecho conforma en gran medida la realidad social, económica, política... Ahora mismo vivimos una realidad tecnológica y el derecho tiene que vivir inmerso en esta nueva realidad. Tenemos que saber dar respuesta a la realidad tecnológica en la que nos encontramos. Con un problema: y es que no existe una normativa que sirva para dar respuesta a los grandes retos que nos están planteando los robots, la inteligencia artificial y el mundo tecnológico en general. Ahora mismo estamos, no voy a decir sin defensas, pero sí sin una respuesta adecuada.

¿Por qué? Creo que la reflexión en torno a la tecnología es algo que nos interpela a todas las ciencias. Algunas de las ciencias están creando la tecnología y otras tienen que generar el marco conceptual donde esas tecnologías puedan desarrollarse. Esa es mi labor como jurista del siglo XXI y por eso lo estoy desarrollando.

José María Lassalle: Es evidente que el derecho tiene que hacer un esfuerzo de adaptación a los cambios que vive la sociedad, pero también es verdad que los robots llegaron hace mucho tiempo y muchos más están en camino. Lo que sucede es que en los últimos tiempos han salido de las cadenas de montaje y empiezan a circular por las carreteras, como sucede con los prototipos de coches o camiones autónomos. Ya están volando en espacios aéreos: los drones nos acompañan y son experiencias que cada día son más habituales. También están reemplazando a los electrodomésticos y entrando en nuestras casas de una manera cotidiana.

Sin embargo, esa realidad, que lleva escalando mucho tiempo, carece de una regulación específica en nuestro ordenamiento jurídico. Hay una serie de recomendaciones que se han desarrollado en la Unión Europea y plantean ideas sobre cómo gestionar esas tres Ds, que en la terminología anglosajona marcan las posibilidades de los robots: "dirty" (sucio), "dull" (tedioso) y "dangerous" (peligroso) para definir el entorno en el que se han venido desenvolviendo los robots. Pero ya tienen años a sus espaldas y vienen marcando una tendencia de cambio en la economía y la sociedad.

Actualmente no existe una normativa que sirva para dar respuesta a los grandes retos que nos están planteando los robots

Es cierto que el derecho va siempre más retrasado que la realidad. Usted lo comentaba antes. ¿Por dónde cree que debe orientarse una regulación de la robótica, a través de normas especiales o de un código específico?

Iñigo Navarro: Yo soy profesor de derecho civil. Le diría que el reto que tenemos, desde Roma, es cumplir la tria iuris praecepta: 

  1. Honeste vivere. Tenemos que conseguir que la tecnología pueda vivir honestamente entre nosotros. La tecnología no puede apropiarse de lo que es nuestro, no puede mancillar nada de la propia honestidad humana.
  2. Suum cuique tribuere. La tecnología debe ayudarnos a dar a a cada uno lo que le corresponde y debemos dar a la tecnología, y quitárselo también si fuera necesario.
  3. Alterum non laedere. La tecnología no puede dañar; no ha de servir para dañar. 

Teniendo en cuenta estos tres puntos, necesitamos una normativa que tenga carácter europeo. Este es el típico ámbito en el cual no sería comprensible que hubiera una realidad segmentada jurídicamente porque el mercado, la economía y los servicios en esta materia son claramente de carácter global. Haría falta una normativa europea que además debería contemplar una serie de principios comunes que afectaran a toda la inteligencia artificial y a los robots. Haría falta una ley general básica de robots e inteligencia artificial, sin perjuicio de que más adelante, evidentemente, habrá mil sitios donde será necesario regular estos temas de forma más específica.

Tenemos que conseguir que la tecnología pueda vivir honestamente entre nosotros

Por ejemplo, no se pueden regular las sociedades mercantiles sin tener en cuenta que muchas sociedades mercantiles serán gestionadas por robots e inteligencia artificial. La ausencia de una legislación clara nos lleva a sistematicidad total y absoluta. Por ejemplo, estamos aplicando la responsabilidad del fabricante por productos defectuosos, desde un coche hasta una batidora. Estamos aplicando normativas completamente fuera de escala, esto es, las estamos sacando de la escala para la que nacieron. En mi opinión, sí que hace falta una normativa básica con carácter europeo, sin perjuicio que después habrá que dar pinceladas en muchas otras normas, en un futuro más cercano que lejano.

José María Lassalle: Se está planteando una reflexión que tendría un ámbito reglamentario dentro de la Unión Europea y que después se trasvasaría a los ordenamientos jurídicos. Creo recordar que ya en el año 2017 hubo una resolución del Parlamento Europeo que dio pie a una serie de recomendaciones destinadas a la Comisión sobre normas de derecho civil sobre la robótica, donde se establecía un listado de líneas de trabajo. Sin embargo, transcurridos ya tres años y con la pandemia de por medio no han dado pie a una regulación concreta. Se hablaba de crear una agencia europea de robótica e inteligencia artificial, que a fecha de hoy no existe, de elaborar un código ético voluntario que promulgara un conjunto de reglas de responsabilidad por daños, de crear un estatuto de persona electrónica, e incluso un registro europeo de robots inteligentes.

Hace falta una normativa básica con carácter europeo que regule la robótica

Todas estas recomendaciones no se han traducido en una acción legislativa. En el caso español tenemos ahora mismo un proyecto de comisión que, al amparo de la Secretaría de Estado de Inteligencia Artificial, está elaborando un catálogo de derechos digitales. ¿Cree que habría tanta urgencia para que la administración española también elaborara un libro blanco o afrontara una propuesta de recomendación (o algún tipo de comisión) que permitiera abordar estas cuestiones que ya están contenidas en las recomendaciones que planteó el Parlamento Europeo en el 2017?

Iñigo Navarro: Sin duda alguna, José María. Antes ha mencionado una serie de robots que ya conviven con nosotros, como los vehículos autónomos y los drones. Pero también están los robots asistenciales, las prótesis robóticas, los robots quirúrgicos, la inteligencia artificial para diagnósticos... También tenemos robots que generan vínculos emocionales, otros que sirven para la seguridad en nuestras casas, e incluso otros con usos militares. Tenemos robots hasta en los despachos de abogados, que examinan miles de correos electrónicos para analizar todas las conversaciones, e incluso el tono. Todo ello está sin regulación alguna. Imagínese, solo describiendo para qué sirven, con eso ya nos bastaría para pensar qué tipo de daños pueden ocasionar.

¿Qué tipo de daños puede ocasionar una inteligencia artificial que se utiliza en un banco para ver si se puede conceder una hipoteca o no? Son daños graves. Por ejemplo, el daño derivado del sesgo algorítmico, o el daño de una inteligencia artificial dedicada a la seguridad, o un fallo de un robot quirúrgico como Da Vinci. Esos daños no están ahora mismo contemplados en la legislación. Todo ha cambiado hasta el punto de que ahora mismo es evidente que cuando alguien conduce un coche, el conductor es responsable de todos los daños que causa. 

Los daños derivados de la inteligencia artificial, como por ejemplo el fallo de un robot quirúrgico, no están contemplados en la legislación

Pero esos paradigmas que teníamos de siempre (es obvio que tiene que responder el conductor, no el fabricante), ahora han cambiado. ¿Quién tiene que responder cuando hablamos de vehículos autónomos? ¿El "no conductor" que lo llevaba o el fabricante? Todo esto ha cambiado y hay un debate inexistente al cual si le aplicáramos los criterios que tenemos, ¿quién respondería por un vehículo autónomo? ¿Sería responsable el conductor que no existe? ¿El programador? ¿El fabricante? ¿El formador? Hace falta un debate sobre este tema porque la ausencia de debate, como ocurre siempre, se llena por parte del que tiene el mayor interés económico. Actualmente el fabricante que vaya a poner en el mercado la máquina va a ser el que va a generar la opinión y creo que hace falta un debate con un corte más neutral.

En mi opinión, sería necesario que se extendiera una mínima regulación sobre la inteligencia artificial y los robots porque no podemos permitirnos lo contrario. Si los robots fueran como los que tenemos hasta ahora, como la Termomix o Roomba, no sería crítico. Pero según vamos avanzando en tecnologías como "smart houses", ¿qué ocurre si una alarma contra incendios no funciona porque no se ha descargado bien la última versión del programa? Si existe un cable roto, es algo que sabemos solucionar de toda la vida en derecho. Pero si la última versión del "firmware" no se ha descargado bien o se ha hackeado, ¿eso cómo lo resolvemos? No tiene regulación ni solución jurídica ahora mismo. Son casos que empiezan a ocurrir y no sabemos ni cómo enfrentarnos a ellos ni cómo categorizarlos.

Evidentemente sí, hace falta un libro blanco o la forma en la que ahora mismo parezca más oportuna. Hace falta establecer una reflexión sobre esta materia. Dentro de este Foro de Humanismo Tecnológico hemos hablado muchas veces sobre la necesidad de urgencia en materias como esta. En esta materia en concreto ahora mismo hay una auténtica urgencia y no querer verlo es hacer el avestruz.

Rara vez los datos que generan las máquinas los explota el consumidor o el usuario

José María Lassalle: Sería urgente crear un derecho de los robots. De igual manera que en estos momentos tenemos derechos sanitarios, inmobiliarios y administrativos específicos, entre otros, deberíamos comenzar a trabajar las categorías jurídicas para poder abordar este tipo de reflexión. Por ejemplo, ¿cómo cree que deberían abordarse los datos? Es decir, ¿quién es dueño de los datos que generan los robots? Esto tiene una repercusión económica importantísima porque los datos generan un agregado de valor que dentro de la economía de plataformas es esencial a la hora de establecer límites y quién ve incrementada su cuenta de resultados y quién no.

En segundo lugar, la responsabilidad. Es decir, un ámbito fundamental en el que es necesaria una regulación urgente (porque el código civil es insuficiente para regular la responsabilidad civil) que se vincule a la robótica. Y que regule los daños que pueda ocasionar un sistema robótico fallido que provoque un incendio en casa u otros daños. ¿Cómo abordaría estos dos casos prácticos desde su mente de ingeniería jurídica?

Iñigo Navarro: Estos dos casos prácticos son parte de la gran cuestión a la que nos vamos a enfrentar en las próximas décadas de este siglo XXI. Para los datos, el lenguaje que normalmente utilizamos no sirve porque ser dueño de los datos (el mero carácter de la propiedad de los datos) no describe en ningún caso lo que pueda ser respecto a un dato. Efectivamente, como bien dice usted, el valor del dato es cuando se agrega a otro dato. Es decir, el dato en sí no tiene tanto interés como la agregación de los datos que se produce a través de datos particulares.

Los datos explotados por terceros provocan un 'cuasi contrato' de enriquecimiento sin causa

Sobre los datos que generan las máquinas, el tema está en quién explota esos datos. Rara vez los datos que generan las máquinas los explota el consumidor o el usuario, los explota otra persona. Este es el dilema Facebook. Por ejemplo, el hecho de que mi teléfono sepa dónde iré cuando acabe esta conversación y que sepa hasta que me gusta John Coltrane. Estos datos, como usuario, no los exploto, o si lo hago, es de forma muy menor, como por ejemplo que me ofrezcan una edición en vinilo de Miles Davis. Son datos explotados por terceros. Evidentemente [como consumidor] debería poder tener una capacidad de veto sobre este tipo de datos y obtener algún tipo de valor por el valor que se extrae de ellos. Se está produciendo un empobrecimiento con un enriquecimiento sin correlato alguno. Es casi como un contrato de enriquecimiento sin causa.

El empobrecimiento que yo sufro debería compensarse con respecto al enriquecimiento que el otro está teniendo. Creo que es la vía. Teniendo en cuenta que no hay un contrato claro, esto realmente es un enriquecimiento sin causa. Se parte de la base de un empobrecimiento y un enriquecimiento con relación causal. No es que yo le haya dado el dato, el dato me lo han extraído y además se han lucrado con él. Creo que esta sería la vía de entenderlo desde un punto de vista patrimonial. Desde un punto de vista moral, entraríamos dentro de la materia de la privacidad, que es la que creo está mejor regulada. 

Por otro lado, también estaría el asunto del almacenamiento de datos y la pérdida de datos, que es otra guerra que no tiene nada que ver con esto pero es parecida. El daño derivado de una filtración de datos, algo que periódicamente ocurre, es un tipo de daño que nosotros todavía no tenemos planteado en nuestro sistema. Es decir, qué daños me causa a mí cuando alguien que tiene mis datos los filtra a terceros, los hackea, o los vende. Creo que aquí es donde hace falta ahora mismo una nueva regulación.

Hoy en día existen nuevos conceptos de 'daños' que tenemos que empezar a afrontar y que probablemente requerirán una nueva normativa

Hace falta una regulación por cosas tan simples como la categoría de "daño". Un daño del código civil es aquel que por acción u omisión causa daño a otro. El concepto "daño" es un concepto dinámico. Hoy en día son "daño" cosas que hace 20 años no lo eran. Cuando yo estudiaba, no era "daño" el acoso escolar, existía pero no formaba parte de la categoría de "daño". La pérdida de autoestima que un adolescente sufría derivado del acoso escolar de sus compañeros no era un daño reclamable civilmente. Hoy en día son daños reclamables civilmente y el Tribunal Supremo admite que la pérdida de autoestima de un adolescente se puede compensar económicamente.

El concepto de "daño" es un concepto dinámico, sin necesidad de cambiar la ley. Hoy en día existen nuevos conceptos de "daños" que tenemos que empezar a afrontar y que probablemente requerirán una nueva normativa. O al menos ver la normativa de otra manera. Porque muchos de los daños derivados del sesgo algorítmico, de la pérdida de datos de una persona o de la violación de la privacidad, por ejemplo, no están previstos en un esquema de responsabilidad. En el mundo de la inteligencia artificial no hay manera de establecer la causalidad clásica de forma correcta. ¿Quién puede ser el responsable? Probablemente gravite en torno al fabricante, al formador del robot y al consumidor del robot. Estas figuras, según en qué caso determinado, podrían ser las tres responsables de manera independiente. Habrá supuestos en los que sean los tres o uno de ellos. Esa normativa y criterios son los que nos hacen falta. Tenemos que clarificar quién puede ser responsable y cuáles van a ser los factores de atribución de responsabilidad.

En el mundo de la inteligencia artificial no hay manera de establecer la causalidad clásica de forma correcta

Por ejemplo, el fabricante podría ser responsable cuando en la fabricación del robot haya un defecto de diseño o de producción. El formador será responsable cuando, no habiendo defecto de diseño o producción, se produzca un "machine learning" mal alimentado por parte del formador. Es necesario regular de forma clara estos factores de atribución vinculados a los sujetos, que como mínimo son tres. Porque el Código Civil no sirve y la directiva europea de fabricantes de productos defectuosos, por ejemplo, se queda muy corta ante una realidad como los robots, que se caracterizan por tener inteligencia artificial y por aprender. Tenemos que tener en cuenta que estamos generando máquinas que aprenden. La resolución del Parlamento Europeo que mencionaba antes decía algo que me llamó la atención: el hecho de que los robots aprendieran los convertía en máquinas que podían improvisar y ser menos obedientes.

José María Lassalle: Estamos ante un vacío, no solamente legal, sino también conceptual, que requiere el trabajo de una disciplina específica que combine muchos elementos porque, entre otras cosas, estamos ante interacciones complejas donde no basta una solución lineal en la que el legislador resuelva y regule sin más. Hace falta todo un proceso teórico conforme al cual aproximarnos al diseño y a una estructura de equidad, que aborde desde el problema de los datos a los problemas éticos, pasando por las responsabilidades.

En ese proceso que comentaba hace un momento de "machine learning" y de desarrollo evolutivo que estamos generando quizá está también la respuesta a una pregunta que nos planteábamos al inicio: ¿Por qué el derecho está siendo tan renuente a abordar claramente una legislación al respecto? Nunca como hasta ahora el ser humano se enfrenta a una criatura. No solamente a una criatura en un sentido antropomórfico (muchos de los robots que estamos generando se asemejan al ser humano), sino que a través de la propia evolución algorítmica y la capacidad del "machine learning" de ir incorporando una inteligencia artificial que evolucione, tal vez en un futuro no muy lejano nos enfrentemos a experiencias de inteligencia artificial general donde la máquina no solo aprenda, sino que piense por sí misma.

Probablemente la inteligencia artificial cuadra más con inteligencias múltiples que con la inteligencia general

A partir de ahí, ese problema que también planteaba la resolución europea, el estatuto de la persona electrónica, comience a ser un problema de otra edad. ¿Cuáles serían para usted los principios básicos para una otredad real del mundo de la robótica?

Iñigo Navarro: Todos los temas que ha planteado son interesantísimos. Para entender la inteligencia artificial, en muchas ocasiones, a mí me ha servido intentar entender un poco la inteligencia humana. Probablemente la inteligencia artificial cuadra más con inteligencias múltiples que con la inteligencia general que usted dice. Es más fácil que una inteligencia artificial se pueda encuadrar dentro de una de las múltiples inteligencias que Garner planteaba. Lo que es realmente complicado es lograr que una máquina tenga los mismos cambios químicos que nosotros tenemos en el cerebro. Se me hace muy difícil ahora mismo pensar en una inteligencia general de este tipo. Más bien pienso que vamos a ir viendo mayores avances dentro de las inteligencias sectoriales o segmentadas, como las múltiples de Garner.

Con algunos compañeros de filosofía del derecho he tenido la ocasión de debatir sobre algo que no tiene nada que ver, pero que al mismo tiempo tiene todo que ver: los derechos de los animales. Permítame que haga el análisis paralelo. Con los derechos de los animales, algún filósofo del derecho español plantea que hay que dar derechos a los animales y su reflexión es la siguiente: los animales son seres sintientes y causar un dolor a alguien que siente es feo y moralmente reprobable. Afirman que no solo es que sientan, son seres autónomos y probablemente también tengan una cierta estructura moral.

Un robot podría llegar a autogobernarse pero con una ausencia total de la dignidad típica de la personalidad jurídica

En relación a esa idea del sentimiento gravita el concepto de crear unos derechos de los animales, una idea que hoy en día tiene múltiples defensores. Con los robots no estamos hablando de seres que sientan. Estamos hablando de otra idea diferente, de seres cada vez más autónomos. De esa autonomía se pretende derivar que exista algún tipo de personalidad. Es una guerra diferente, porque una cosa es la dignidad de la personalidad jurídica, que es la que tendrían los defensores de los animales, y otra muy distinta es el elemento de autonomía.

La autonomía en derecho civil sirve para tener capacidad de obrar, que es diferente de la capacidad jurídica. Según el artículo 200 del Código Civil, uno puede perder su capacidad de obrar cuando, por una enfermedad, pierda la capacidad de gobernarse por sí mismo. La capacidad de autogobierno es lo que nos convierte en personas capaces. Un robot podría llegar a autogobernarse, pero con una ausencia total de la dignidad típica de la personalidad jurídica. Los robots nos plantean una cuestión paradójica: tienen menos dignidad que un animal, pero pueden tener una capacidad de autogobierno mucho mayor e incluso en algún momento podrían llegar a superar la humana.

Para esto podría plantearse algún tipo de estatuto jurídico. Lo que no creo es que se deba denominar personalidad jurídica. Incluso el término "personalidad electrónica" no suena bien por una cuestión: la personalidad no es, ni más ni menos, que la aptitud para ser titular de derechos y obligaciones. Por ejemplo, en responsabilidad civil, si un robot causa daños, el robot no responde porque no es persona: responderá su dueño, que es la persona que tiene patrimonio. Pero si el robot fuera persona y él respondiera tendría que responder con su patrimonio. ¿Y cuál sería su patrimonio más allá de su propio ser?

Si un robot se parece demasiado a un ser humano, la máquina puede producir aversión

El tema de la personalidad jurídica de los robots suena "feo" cuando se trata desde un punto de vista patrimonial. Cuando se trata desde un punto de vista jurídico, creo que hay que distinguir la autonomía de lo que hay por debajo, del carácter sentimental. Por otro lado, no me parecería nada mal que hubiese un estatuto sobre qué es un robot y una cierta regulación, porque, igual que proponía la resolución, sería muy interesante que hubiese un registro, una agencia europea o un sistema de seguro obligatorio para todos los tipos de robots según sus categorías, que cubriera todos los hipotéticos daños que pudieran causar. Para ello habría que registrarlos, regularlos y dotar el proceso de un estatuto jurídico especial. Pero sin perder de vista que una cosa es ser sujeto de derechos y otra cosa es ser objeto de derechos.

Creo que, así como nosotros somos sujetos de derechos, un robot de momento es objeto (a excepción de la novela de Isaac Asimov Yo, Robot, que plantea robots de los cuales hasta uno se podría enamorar). En el Valle inquietante, Mori representa un gráfico en el que refleja que a mayor parecido con el ser humano, mayor empatía tenemos con el robot. Pero llega un momento en el cual la gráfica cae abruptamente porque, si el robot se parece demasiado y es casi como usted, pero no exactamente porque los ojos tal vez sean fríos o tenga un movimiento extraño, existe un valle inquietante en la gráfica de la empatía y entonces esa máquina le produce a uno aversión.

Creo que a nosotros los robots nos gustan cuando son antropomórficos, porque son bípedos y tienen una cara redonda y son monos, pero cuando se parecen mucho a nosotros, esa otredad son otros. No es una alteridad subjetiva, es un objeto.

José María Lassalle: Es un placer escucharle y asomarnos a esa tensión que plantea la tecnología de si abordaremos una humanización tecnológica o una deshumanización, en la medida en la que el robot es un icono en el que se reflejan claramente las tensiones de la revolución digital. Implican una otredad real. Implican una posibilidad de salvación y de liberación para el ser humano, pero al mismo tiempo de condena. Porque pueden liberarnos del trabajo, pero nos condenan a tener que abordar una transición hacia una sociedad del bienestar sobre la base de patrones que son muy distintos.

Toda la realidad que conocíamos está siendo transformada porque están apareciendo una serie de criaturas que, de alguna manera, están reemplazándonos en muchos ámbitos que han sido fundamentales de nuestra existencia. Y nos están colocando ante dilemas filosóficos muy profundos en los que estamos anticipando escenarios y horizontes que tendrán que ser éticos porque, de lo contrario, no seremos capaces de resolverlos.

Ha sido un placer poder asomarnos a una mente jurídica en activo y escuchar sus reflexiones sobre la base de los conceptos de un derecho que no solamente está en la ley, sino que está en unos principios generales que son los que nos ayudarán probablemente a afrontar también la construcción de ese derecho del trabajo. Iñigo, millones de gracias, esta es su casa. Cuando termine ese libro que está trabajando y tenga la obra publicada, por favor, que este sea el primer sitio donde podamos hablar de ello.

Iñigo Navarro: Muchísimas gracias, José María. Como está diciendo que "esta es mi casa" y tiene detrás el Secreto del unicornio y a la oreja rota de Tintín estoy por irme allí directamente. Es una alegría estar con usted y compartir estos momentos, siempre es un placer y un aprendizaje. Muchísimas gracias.

José María Lassalle: Gracias a usted ha sido un aprendizaje real.

Todo el contenido está disponible bajo la licencia Creative Commons Reconocimiento 4.0 Internacional.