Es noticia
Esta anécdota de Elon Musk explica el nuevo empleo que se está creando gracias a la IA
  1. Tecnología
hacen falta ingenieros, pero también peritos

Esta anécdota de Elon Musk explica el nuevo empleo que se está creando gracias a la IA

En las investigaciones sobre el AutoPilot de Tesla, Musk aseguró que unas declaraciones suyas eran un 'deepfake'. Esta anécdota anticipa lo que temen en los juzgados de todo el mundo: demostrar la autenticidad de las pruebas

Foto: Elon Musk. (Reuters/Gonzalo Fuentes)
Elon Musk. (Reuters/Gonzalo Fuentes)

"Ahora mismo, un Model S y un Model X pueden conducir de forma autónoma con mayor seguridad que una persona". Elon Musk hizo aquella afirmación en 2016. Tras años hablando de las bondades del Autopilot de Tesla, a nadie le extrañó. Sin embargo, esa frase le puede salir más cara de lo que pensaba. Un par de años después, un conductor tuvo un accidente mortal cuando utilizaba este software con su Model X, algo que desembocó en una demanda de su familia, que aportó como prueba el vídeo con las mencionadas declaraciones del magnate.

Ahí llegó la verdadera sorpresa: sus abogados aseguraron que se trataba de un deepfake. "Como muchas figuras públicas, es objeto de muchos vídeos y grabaciones de audio deepfake que pretenden mostrarle diciendo y haciendo cosas que en realidad nunca dijo o hizo", alegaron, asegurando que Musk no recordaba haber dicho eso. El argumento no convenció mucho a la jueza, que llamó al hombre más rico del mundo a declarar. "Su posición es que sus declaraciones públicas son inmunes porque es famoso y podría ser un objetivo de estas manipulaciones", comentó entonces, un precedente que tachó de "muy preocupante", ya que podría hacer que otras celebridades "asuman lo que dijeron o hicieron" con esta excusa.

Foto: esla asegura que las palabras de Musk en 2016 sobre el autopilot podrían ser 'deepfakes'. (EFE/George Nikitin)

Más allá de las peculiaridades del personaje en cuestión, lo cierto es que las palabras de la magistrada apuntaban a un problema que se lleva vislumbrado desde hace años, pero como una posibilidad remota. Ahora, el potencial alcanzado en los últimos meses por las tecnologías deepfake, que no dejan de ser una rama de la inteligencia artificial, ha hecho que ese reto irrumpa de golpe en juzgados de todo el mundo.

En el informe, Tackling deepfakes in European Policy, elaborado por investigadores del Parlamento Europeo en 2021, ya se advertía del "riesgo de que se introduzcan deepfakes como prueba cuando estos materiales no se reconocen como no auténticos". "A medida que se hace más difícil distinguir lo que es real, los tribunales y los jurados pueden empezar a cuestionar la autenticidad de cada prueba. Aparte de que los deepfakes condenen a los inocentes y exoneren a los culpables, la gente puede dudar de los contenidos no alterados", sopesaban los autores del texto, que llegaban a mencionar que es algo que podría tener "un efecto corrosivo en el sistema judicial".

placeholder Una creación de un vídeo con tecnologías 'deepfake'. (Reuters)
Una creación de un vídeo con tecnologías 'deepfake'. (Reuters)

"En la Comisión Europea, hay inquietud por el impacto que puede tener en el Estado de derecho, porque se pueden empezar a cuestionar las pruebas y todo puede quedar bajo sospecha", explica Carolina Pina, abogada especializada en inteligencia artificial y jefa del departamento de propiedad industrial e intelectual en Garrigues.

En este sentido, cabe recordar propuesta de reglamento para la IA, aprobada por el Parlamento Europeo hace unas semanas, también aborda los deepfakes, donde se establece que se deberá "revelar de manera adecuada, oportuna, clara y visible que el contenido ha sido generado o manipulado artificialmente", aunque hacen algunas excepciones, como la creación artística. "Quien quiera utilizar estas tecnologías de forma ilícita, como hackers o servicios de espionaje, nunca va a identificar, y ese es el problema, no que se utilice para un anuncio de cerveza", recalca por su parte Pina.

"No estamos ni en un 1% de lo que va a ser"

El acelerón de la inteligencia artificial en los últimos meses ha hecho que sus creaciones sean cada vez más indistinguibles de los textos, fotografías o vídeos reales, algo que ha generado un aluvión de herramientas para detectarlo. El problema es que casi ninguna lo consigue y, si lo hace, el porcentaje de acierto es muy limitado. De hecho, ni la propia OpenAI es capaz de asegurar si un texto ha sido creado por ChatGPT. Sin embargo, el caso de los textos parece menos farragoso de lo que puede llegar a suponer el contenido audiovisual manipulado.

"A medida que los deepfakes proliferen en la sociedad, van a invadir inevitablemente los procedimientos judiciales. Esta invasión plantea nuevos retos a los jurados, que tendrán más dificultades para distinguir las pruebas veraces de las falsas", advertía en un paper reciente de Rebeca Delfino, profesora de Loyola Law School, en Los Ángeles. Pina, por su parte, considera que "surgirá una nueva profesión o los peritos informáticos tendrán que encargarse de estas cuestiones", agrega Pina, de Garrigues, destacando que "las periciales van a ser cada vez más sofisticadas y no hay tantos profesionales técnicos que sepan hacerlas en España".

Foto: La 'streamer' QTCinderella durante el directo sobre los 'deepfake' porno. (Twitch)

"Por ahora, no ha llegado a los juzgados de forma excesiva, pero ya hemos visto varios casos en los últimos meses. No estamos ni en un 1% de lo que va a ser esto", explica por su parte Carlos Aldama, perito informático con casi tres décadas de experiencia. "Es algo que va a hacer que nos tengamos que readaptar y especializar en esta área, como ya ha ocurrido otras veces. Ya nos pasó algo similar con las estafas de criptomonedas".

Este especialista explica que "la suplantación se ha hecho siempre, solo que la IA la pone al alcance de todo el mundo y, además, es mucho más difícil de detectar". "Nosotros hemos hecho pruebas comparando contenidos y no veíamos diferencia", reconoce, poniendo algunos ejemplos: "Antes era fácil ver si un audio había sido manipulado para que no se escuchara bien un determinado momento de una conversación, para lo que se metían ruidos o se exageraban los que había. Ahora las técnicas de IA lo han perfeccionado y, por ejemplo, lo consiguen ajustando las frecuencias".

placeholder El Papa, con un abrigo al estilo Balenciaga, según la IA MidJourney.
El Papa, con un abrigo al estilo Balenciaga, según la IA MidJourney.

"Yo no puedo determinar si ha sido generada por IA, a no ser que tenga acceso al ordenador o servidor desde el que se ha generado, así que hay que asumir que se parte de datos parciales", continúa este perito, y recalca que "la IA también deja rastro, aunque sea menor". "Se pueden crear una serie de indicios de cómo se ha generado, pero no van a poder ser certezas de cara a juicio. Es un problema, porque muchos indicios constituyen una prueba, pero un solo un indicio no", apunta antes de enfatizar que "todas las pruebas tienen que demostrarse con una base científica, sea para mostrar que están manipuladas o no".

De este modo, también se pueden analizar cuestiones como los metadatos de los archivos, donde aparece información sobre su creación. "Es cierto que eso también es manipulable, pero también que hay ciertos indicios que hacen que se sospeche, como que no aparezca ningún metadato", ejemplifica Aldama, señalando otras opciones, como fijarse en el ratio de compresión, "porque en algunos casos es muy específico de una plataforma generadora".

Foto: Mesa redonda 'Tecnología con propósito: IA Generativa, ChatGPT y su impacto en las profesiones'.

Pese a todo, este perito considera que "no va a tener un impacto tan grande en la profesión, porque ya existía de forma rudimentaria, lo único que ahora va a haber más picardía y te la van a intentar colar más". De hecho, el problema cree que va a venir por otro sitio, al menos, en España, donde apenas hay unos centenares de peritos informáticos en activo.

"Es algo que ya está empezando a generar mucha demanda y van a faltar un montón de profesionales, porque ya había pocos antes del estallido de la IA y los deepfakes va a hacer que falte más gente aún. Si no se forma la gente, nos va a pillar el toro. Estamos hiperdesbordados", avisa este perito, que cree que hacen falta "el triple o el cuádruple" para que se llegue a un equilibrio.

"Ahora mismo, un Model S y un Model X pueden conducir de forma autónoma con mayor seguridad que una persona". Elon Musk hizo aquella afirmación en 2016. Tras años hablando de las bondades del Autopilot de Tesla, a nadie le extrañó. Sin embargo, esa frase le puede salir más cara de lo que pensaba. Un par de años después, un conductor tuvo un accidente mortal cuando utilizaba este software con su Model X, algo que desembocó en una demanda de su familia, que aportó como prueba el vídeo con las mencionadas declaraciones del magnate.

Internet Innovación Inteligencia Artificial
El redactor recomienda