Los 'deepfakes' como nuevo desafío del legislador: ¿puedo creer en lo que veo y oigo?

Lola Bardají

Después del debate sobre la llamada desinformación generada por las fake news, y la proliferación de medidas para combatirla, surge ahora un nuevo debate que nos lleva a plantear si la inteligencia artificial no está, precisamente, al servicio de esa desinformación.

La controversia deriva de la aparición, en las plataformas digitales, de los denominados deepfakes, que no son otra cosa que algoritmos creados y entrenados para falsear rostros y voces humanas.

La denominación de deepfakes, o falsificaciones profundas, proviene de los términos deep learning (aprendizaje profundo) y fake (falsificación).

Las falsificaciones profundas utilizan redes generativas antagónicas (en inglés, generative adversarial networks o GAN), en las que se enfrentan dos modelos de aprendizaje automático. Un modelo de aprendizaje automático se entrena en un conjunto de datos para después crear falsificaciones, mientras que el otro intenta detectar las falsificaciones creadas (red discriminatoria).

Los deepfakes son algoritmos creados y entrenados para falsear rostros y voces humanas

El falsificador crea falsificaciones hasta que el otro modelo de aprendizaje automático no puede detectar la falsificación. Cuanto mayor sea el conjunto de datos de entrenamiento, más fácil será para el falsificador crear una falsificación creíble, aparentemente real.

Esta idea de enfrentar redes generativas que compiten en un juego constante de "suma cero" parte de un estudiante de la Universidad de Montreal, Ian Goodfellow, de 29 años de edad, que posteriormente trabajó para Google Brain y que fue reconocido como uno de los "35 innovadores menores de 35 años" por la MIT Technology Review en 2017.

Su idea se basaba en investigaciones anteriores, como, por ejemplo, en los trabajos publicados por Jürgen Schmidhuber en la década de los 90 sobre minimización de la previsibilidad y curiosidad artificial, así como en el concepto de aprendizaje de Turing, teorizado en 2013 por Li, Gauci y Bruto.

El propio Goodfellow declaró que una de las razones por las cuales quiso dedicarse a las GAN es porque estos modelos tienen el potencial de generar objetos que podemos usar en el mundo real. Y, en concreto, señalaba algunos de los beneficios de esta inteligencia artificial: "En el futuro creo que las GAN se van a usar en varias disciplinas, como en el diseño de medicamentos".

La utilización de los deep fakes se ha encaminado a suplantar personalidades de políticos y personajes públicos

Pues bien, desde hace dos años, el uso de los deepfakes con fines encaminados a suplantar rostros y voces mediante las GAN nos demuestra que una parte de la sociedad ha iniciado un camino que nada tiene que ver con el idílico fin para el que fueron creadas. Efectivamente, la utilización de esta técnica se ha encaminado a suplantar personalidades, fundamentalmente de políticos y personajes públicos.

Mark Zuckerberg
Los deepfakes de Obama acumulan millones de visitas en las redes sociales (Foto: Pixabay)

La organización internacional sin ánimo de lucro y en defensa de los derechos humanos WITNESS introduce el concepto de deepfake dentro del marco conceptual de lo que se denomina desorden informativo.

El análisis de esta organización distingue tres categorías dentro de ese desorden:

  1. Misinformation (información errónea): cuando la mala información no obedece a una mala intención, sino que se deriva de un error o equivocación.
  2. Malinformation (información malintencionada): cuando se difunde información veraz, pero de carácter privado, con la intención de causar daño.
  3. Disinformation (desinformación): implica crear y difundir información falsa con malas intenciones.

Nos adentramos en un mundo en el que no sabemos si la persona con la que estamos hablando es la que creemos o es otra persona bajo la apariencia de aquella. Puesto que con la utilización de los deepfakes es perfectamente posible suplantar por completo el rostro (y la voz) de una persona por otra, estamos, efectivamente, ante una falsificación.

Los avances en inteligencia artificial se producen a tal velocidad que los expertos empiezan a plantearse si va a ser posible detectar esa falsificación

Desde el punto de vista de la seguridad jurídica, son muchas las normas que, en los distintos ámbitos del derecho, contemplan una sanción para ese supuesto. El problema se agrava actualmente por el hecho de que los avances en inteligencia artificial se producen a tal velocidad que los expertos empiezan a plantearse si va a ser posible detectar esa falsificación. De hecho, si se llegara a ese grado de perfeccionamiento sería un problema gravísimo.

En un primer momento, los deepfakes han servido a algunos para entretenerse utilizando en vídeos rostros de famosos e imágenes de políticos en actitud chistosa.

Recordamos que hace dos años la Universidad de Washington presentó un proyecto piloto conocido como Synthesizing Obama, un algoritmo entrenado para manipular vídeos sincronizados con movimientos faciales utilizando la imagen del expresidente de Estados Unidos, Barack Obama, para reproducirla en contextos distintos repitiendo una declaración idéntica. Existen además, muchos otros casos (Nancy Pelosi, Donald Trump y Mark Zuckerberg).

Ahora bien, la utilización de falsificaciones profundas puede tener enormes consecuencias y se hace muy necesario que los legisladores empiecen a trabajar en el marco regulatorio para evitarlas o sancionarlas.

Los deepfakes podrían llegar a desvirtuar pruebas en un juicio

Imaginemos que se desvirtúan pruebas que han de aportarse en un juicio utilizando deepfakes, o que se utilizan deepfakes para comprar a través de reconocimiento facial, o que se destruye un matrimonio por un vídeo deepfake comprometedor para el suplantado, o que se despide a un trabajador por hacer declaraciones en contra de su empresa a través de un vídeo deepfake.

Está claro que la cuestión debe ser sometida a control, y no únicamente trabajando en la creación de una inteligencia artificial que permita detectar los deepfakes (tal como han empezado a hacer Facebook, Microsoft y Amazon en el importantísimo proyecto Deepfake Detection Challenge, con una inversión de más de 10 millones de dólares), sino construyendo un sólido marco regulatorio que permita frenar el mal uso de la tecnología GAN.

La congresista demócrata estadounidense por Nueva York, Yvette Clarke (miembro de alto nivel del Subcomité de Seguridad en Amenazas Emergentes, Ciberseguridad, Ciencia y Tecnología), presentó recientemente un proyecto de ley federal llamado Deepfakes Accountability Act (Ley de Responsabilidad Deepfakes). Esta norma obligaría a las empresas de redes sociales a mejorar las herramientas de detección que utilizan en sus plataformas y permitiría penalizar a quienes publiquen deepfakes maliciosos.

Para combatir con éxito este mal uso de la tecnología será necesario consensuar marcos regulatorios globales

No es la primera vez que los legisladores estadounidenses intentan tomar cartas en el asunto. En diciembre de 2018, el senador republicano por Nebraska, Ben Sasse, presentó otro proyecto de ley que intentaba prohibir los vídeos deepfake maliciosos. El senador republicano por Florida, Marco Rubio, se ha pasado años alertando repetidamente sobre los efectos perjudiciales de un mal uso de la tecnología, llegando a calificar los deepfakes (en un tono ciertamente exagerado) como “el equivalente moderno de las armas nucleares”.

Por su parte, en China, la otra gran potencia en inteligencia artificial, el Comité Permanente del Congreso Nacional Popular de China está debatiendo una reforma del Código Civil para proteger mejor el derecho a la propia imagen ante la amenaza que representan los deepfakes.

No olvidemos, además, que China es el país líder en pagos a través de reconocimiento facial. Ante la amenaza de los deepfakes y las graves consecuencias que podrían comportar, que van más allá del hecho de que una plataforma de préstamos fintech robe dinero, los esfuerzos se centran en trabajar en una tecnología dirigida a detectar las falsificaciones profundas.

De hecho, Alipay, el sistema de pago administrado por Ant Financial, filial del gigante del comercio electrónico Alibaba, insiste en que el pago basado en reconocimiento facial requiere de la presencia de una cara tridimensional.

Parece obvio que hay que combatir la inteligencia artificial de los deepfeakes con otra inteligencia artificial que pueda detectarlos y frenarlos. Pero parece claro también que es necesario un marco jurídico que proporcione seguridad a nivel público y privado. Probablemente, para combatir con éxito este mal uso de la tecnología, será necesario aunar esfuerzos y consensuar acuerdos y marcos regulatorios globales.

Más información: Dodging deception & seeking truth online [survey results]

Todo el contenido está disponible bajo la licencia Creative Commons Reconocimiento 4.0 Internacional.