Es noticia
La inteligencia artificial Sora nos precipita al final de la realidad
  1. Tecnología
  2. Novaceno
Nada es verdad

La inteligencia artificial Sora nos precipita al final de la realidad

Sora es un motor de inteligencia artificial capaz de generar vídeo realista. Todavía se le ven las costuras, pero muestra que estamos a un paso de caer en el fin de la realidad

Foto: Un fotograma de un vídeo creado con el nuevo modelo de inteligencia artificial Sora. (OpenAI)
Un fotograma de un vídeo creado con el nuevo modelo de inteligencia artificial Sora. (OpenAI)

Estamos a punto de dar el último paso antes de caer al precipicio del fin de la realidad, la era de la posverdad donde nada, absolutamente nada de lo que veamos en las pantallas de nuestros teléfonos y ordenadores, será creíble. Sora, la nueva inteligencia artificial de OpenAI capaz de generar un minuto de vídeo que parece sacado de una cámara de alta definición con solo escribir un párrafo de texto, nos ha llevado a este punto.

"Sora es capaz de generar escenas complejas con múltiples personajes, tipos específicos de movimiento y detalles precisos del tema y el fondo”, afirma OpenAI. Pero lo que es aún más importante en esta carrera armamentística para hacer que la inteligencia artificial pueda conjurar una realidad alternativa tan creíble como la real es que “el modelo entiende no solo lo que el usuario ha pedido en el prompt, sino también cómo existen esas cosas en el mundo físico".

Foto: El nuevo molino chino será el más grande del mundo. (MingYang Smart Energy)

Sam Altman —el CEO de OpenAI— fardaba ayer de Sora en la antigua Twitter después de la presentación oficial, invitando a la gente a sugerir instrucciones para la nueva IA, publicando los resultados un poco después, como estos dos golden retrievers haciendo pódcast en la cima de una montaña.

A Sora le seguirá Stability Cascade, de la competencia directa de OpenAI. Y luego habrá nueva versión de Runway u cualquier otro hasta que, en unos meses o a lo sumo un año o dos, uno de estos motores de realidad sintética sea totalmente indistinguible de la realidad “real” que podemos ver con nuestros propios ojos.

A punto de caramelo

A Sora se le ven todavía las costuras. No es un modelo generativo perfecto, pero, innegablemente, se acerca. Es un gran salto dentro de una cadena que han pasado desde 2022, el año en que comenzó a cristalizar la revolución de la IA generativa que comenzó a finales de los 2010, cuando el fabricante de chips Nvidia —ahora una de las compañías más valiosas del planeta precisamante por esa estrategia ahora demostrada como magistral— crease las primeras aplicaciones de imagen por IA. Ya nos lo contó el jefe de IA aplicada de la compañía, Bryan Catanzaro, uno de los expertos que entrevistamos para el episodio El fin de la realidad, de nuestra serie Control Z.

De hecho, aunque la mayoría de personas que hoy han abierto su periódico digital para ver la noticia y quedarse alucinados con los vídeos de Sora, esta capacidad ya la predijeron los expertos que entrevisté para el minidocumental. De hecho, ha llegado justo cuando dijeron: en 2024.

La explosión científica, económica y creativa que está ocurriendo ahora mismo llegará a ser comparable a pasar de la Edad de Piedra directamente al 2024 en solo 10 años. Pero, si no tomamos medidas para cortar de raíz su uso para hacer el mal, la inteligencia artificial generativa hará tambalearse a la sociedad, causando profundos daños e irreparables a millones de personas, como me contaba Tom Graham por videoconferencia, CEO y cofundador de Metaphysic, uno de los líderes del sector que ha revolucionado Hollywood con la tecnología deep fake que se hizo viral con el falso Tom Cruise. Estamos en un momento en que toda la sociedad —individuos, tecnólogos, consumidores y legisladores— debe tomar medidas urgentes para evitar daños brutales al público y las democracias. Desafortunadamente, afirma, las leyes van muy por detrás de lo que se está desarrollando, y todavía tardarán 10 a 15 años en llegar. Hoy, asegura, ”estamos en un periodo de peligro”.

Sucesos inevitables que necesitan medidas urgentes

Graham se refiere a un horizonte de sucesos en el que la realidad se evaporará. En algún momento del futuro cercano, perderemos nuestra capacidad para distinguir entre los hechos y la ficción creada por las máquinas, sin importar cuántas herramientas forenses podamos idear. Resulta que, después de hablar con algunos de los principales expertos en el campo, ese "futuro cercano" ocurrirá en los próximos 10 años. Según me contó por videoconferencia Emad MostaqueCEO y fundador de Stability AI, la organización que ha creado Stable Diffusion, el motor de inteligencia artificial generativa más importante del mundo en estos momentos, más allá incluso que ChatGPT— “en los próximos 5 a 10 años podremos crear cualquier cosa que puedas imaginar con una calidad visual perfecta en tiempo real.”

Catanzaro —vicepresidente de inteligencia artificial aplicada de Nvidia, unas de las compañías que ha sentado las bases del campo con su investigación científica y procesadores gráficos— está de acuerdo con la predicción de Mostaque. De hecho, va más allá. “Apuesto a que en 2023 alguien hará una película donde el vídeo, el audio y el guion están hechos con IA, pero, probablemente, dentro de cinco años, eso llegará al punto en el que realmente sería interesante ver algo construido de esta manera”, me cuenta.

Así que en 2033 tendremos la capacidad de crear vídeo de alta definición en tiempo real en el que todo, absolutamente todo, desde la imagen hasta el sonido, la música y cada palabra o gruñido que se pronuncie en él, será generado artificialmente. El producto será indistinguible de cualquier clip o película completa que se pueda grabar con cualquier cámara actual. Antes de eso, sin embargo, veremos vídeos e imágenes y escucharemos audios que serán indistinguibles de la realidad a simple vista, requiriendo de un análisis forense para determinarlo.

Según me dice Gil Perry —CEO y cofundador de la compañía de IA israelí D-ID, creadores de Deep Nostalgia— ,“en uno o dos años, no serás capaz de saber qué es verdad y qué es mentira”. No ya en películas de Hollywood, sino en tiempo real, incluyendo su uso en videoconferencias. Graham afirma que la tecnología de IA generativa podrá cambiar tu cara e incluso tu entorno en herramientas de comunicación como Zoom en tiempo real de forma totalmente creíble en pocos años. De hecho, ahora ya lo hacen de forma iimperfecta y la gente se lo cree.

Cada una de estas entrevistas me dejó con una profunda sensación de desolación y ansiedad ante una crisis que parece inminente e inevitable, una sensación de angustia existencial que aún no me he podido quitar de encima. Lógicamente, el lado oscuro de toda esta tecnología está en su aplicación criminal, no ya por estados autoritarios como Rusia, China o Irán, o partidos políticos extremos de uno y otro signo, sino en el día a día. Estafadores, chantajistas, violadores, acosadores en colegios…, la herramienta será extremadamente poderosa para hacer el mal. Una auténtica bomba atómica al alcance de cualquiera porque, según los expertos, la barrera de entrada será cero. No requerirá de ningún conocimiento o equipo especializado.

Cualquiera con un teléfono móvil lo podrá hacer, como me contaba Mostaque. Siempre he sido un tecnoptimista, el tipo que piensa que no hay problema que no se pueda resolver con la pura ingeniosidad humana. El calentamiento global, el cáncer, la crisis energética, lo resolveremos todo. Pero, a medida que me adentraba más en la inteligencia artificial generativa, descubrí que no hay forma de volver a poner este genio dentro la lámpara. Que, esta vez, hemos desatado una fuerza que será totalmente incontrolable en apenas unos pocos años si no tomamos algunas medidas radicales ahora.

Foto: (Kampus Production - Pexels)

Es un futuro distópico aterrador, que es probable que suceda con otros eventos del mundo real, pero con básicamente el mismo resultado: el fin de la realidad no es bueno para la humanidad. Claramente, la IA generativa es algo que no podemos deshacer. Eso también sería absolutamente estúpido. Su potencial es simplemente demasiado sorprendente para ignorarlo, desde el desarrollo de curas para enfermedades incurables hasta el diseño de naves espaciales mucho mejores que las que diseñan los humanos para llevarnos a nuevos mundos. Y, por supuesto, hacer películas y divertirnos con ella.

Limitar el lado oscuro sin limitar la innovación

Pero confiar en que las empresas se autorregulen también sería igual de estúpido. Esto es algo que admiten los expertos que he entrevistado, incluso siendo parte afectada. Mucho menos cuando está involucrado Silicon Valley. La historia nos ha demostrado una y otra vez que no se puede confiar en ellos. La lista de errores y actos ilegales y desprovistos de toda ética es demasiado larga para ignorarla. La última vez que confiamos en ellos, nos dieron las redes sociales, y todos sabemos cómo terminó ese espectáculo de mierda. Volver a confiar en ellos sería absolutamente tonto, especialmente después de leer el manifiesto aterradoramente mesiánico y autoabsorbido de OpenAI sobre la inteligencia artificial general. Las redes sociales, dice Graham, se lanzaron al mundo con absolutamente cero consideración por el impacto que tendría en los jóvenes y en la democracia. “No creo que ese sea el modelo que debemos seguir para esta nueva tecnología”. Graham piensa que deberíamos tratar de evitarlo a toda costa.

Necesitamos un debate público urgente sobre la IA generativa y hay tres cosas que podemos hacer para evitar una crisis social de consecuencias inimaginables. Requerirán que las empresas se sienten con instituciones y Gobierno, incluso con psicólogos, filósofos y organizaciones de derechos humanos, pero se puede hacer. Mostaque piensa que se necesita una discusión abierta sobre el lado positivo y negativo y qué necesita ser regulado, aunque no cree que haga falta mucho más que una extensión de la legislación actual para proteger a las personas. “El debate abierto siempre es el mejor debido a la complejidad de lo que esto podría hacer a la composición social”, afirma. Graham, sin embargo, afirma que “los legisladores deben pensar en cómo implementar esas leyes tan rápido como sea humanamente posible para proteger a las personas de un daño potencial”.

La primera, y más importante, es la creación de estándares de certificación criptográfica en todo el mundo para autenticar cualquier contenido capturado por cámaras y micrófonos digitales. Esto es algo que ya ha propuesto el Gobierno de Joe Biden, que está viendo las orejas al lobo de la IA generativa en este año de elecciones en EEUU.

El objetivo es establecer una línea básica de certeza que, como mínimo, permita a las personas tener la seguridad de que algo es real. Según Perry, la detección de contenido sintético será imposible. "La IA es más fuerte”, afirma. De ahí la necesidad de saber por lo menos lo que sí es real. También apunta a que se debe trabajar en incorporar marcas de agua invisible en el contenido generado, pero, desafortunadamente, esto puede ser también falsificado por criminales.

La segunda es lanzar programas de comunicación para que el público comprenda el alcance de la inteligencia artificial generativa. Las personas deben aprender para poder defenderse contra nuevas falsificaciones audiovisuales. El mundo está cambiando y los niños están creciendo en un lugar muy diferente. Es un poco aterrador”, me dice Perry, “la idea es hacer la IA abierta al público y hacer que todos tengan acceso y que se acostumbren a ella, no que sea controlada por algunos gobiernos y gigantes tecnológicos”. Graham está de acuerdo con esta labor de concienciación pública.

Hace poco, su compañía participó con sus avatares de inteligencia artificial en tiempo real en el popular programa de televisión America's Got Talent (un ejemplo sobre estas líneas). Su misión, afirma, no solo era promocional, sino hacer conocer el poder de esta tecnología al público general: “Si eso puede ayudar a una persona a disminuir el impacto psicológico [de una imagen o vídeo falso], es positivo”. Finalmente, necesitamos instar a los gobiernos de todo el mundo a colaborar con la comunidad científica en la legislación que proteja los derechos individuales, estableciendo límites penales para tratar de frenar el uso tóxico de esta tecnología. Perry —cuya empresa comenzó desarrollando sistemas para evitar la identificación facial gubernamentales— dice que ellos están presionando a los reguladores para que sean conscientes de la tecnología y la necesidad de establecer directrices, reglas y límites de seguridad. Solo entonces podremos aprovechar su revolucionario potencial creativo sin poner en peligro a la humanidad misma.

Estamos a punto de dar el último paso antes de caer al precipicio del fin de la realidad, la era de la posverdad donde nada, absolutamente nada de lo que veamos en las pantallas de nuestros teléfonos y ordenadores, será creíble. Sora, la nueva inteligencia artificial de OpenAI capaz de generar un minuto de vídeo que parece sacado de una cámara de alta definición con solo escribir un párrafo de texto, nos ha llevado a este punto.

Inteligencia Artificial
El redactor recomienda