La nueva función de la inteligencia artificial para rediseñar tu realidad
Y tres noticias sobre la inteligencia artificial generativa de esta semana fundamentales para todos los que quieren estar al día en esta carrera hipersónica sin fin
El tren de la inteligencia artificial generativa sigue avanzando a toda máquina, sin frenos y cuesta abajo del agujero de gusano hacia la singularidad y el colapso de la realidad. Si la hipervelocidad te ciega los ojos y te abrasa el cerebro más rápido de lo que el Steve Wozniak puede decir “norl!”, no te preocupes, amigo mío: aquí tienes el resumen de las tres noticias fundamentales que realmente necesitas saber hoy.
La clave para que cualquiera pueda usar MidJourney
Si has probado MidJourney y te has frustrado creando imágenes porque no das con las palabras adecuadas en tus descripciones — el famoso ‘prompt’ — la compañía ha lanzado una solución. El nuevo comando "/describe" puede describir cualquier imagen en texto, un proceso de ingeniería inversa que te servirá de guía para generar nuevas imágenes con más precisión.
Sólo tienes que escribir "/describe" y pulsar enter. MidJourney te pedirá que cargues una foto. Después de analizarla te dará cuatro descripciones diferentes de lo que está viendo usando su propio lenguaje marciano. Puedes usar cualquiera de estas descripciones para construir tu propio prompt y obtener una nueva imagen. Lo mejor es que lo pruebes.
I asked Midjourney v5 to '/describe' some logos, to see how it would create prompts for them, and to see what it would create in response.
— fofrAI (@fofrAI) April 4, 2023
Starbucks pic.twitter.com/EiKujhTl1w
Los resultados son fascinantes, como demuestran los ejemplos del diseñador y desarrollador fofrAI. Hay varios ejemplos en su hilo, pero el logotipo de Starbucks se lleva la palma. Si el logo original de Starbucks es tomarse uno de sus horrorosos cubos de café apretado en la hora punta de un andén de metro de Nueva York, el logo creado por la IA sabe a un espresso en una soleada terraza de Via Veneto mientras charlas con Marcello Mastroianni y Sofia Loren.
Pero aparte de estos resultados, lo fundamental de esta herramienta es que no sólo te enseña a diseñar tus propios prompts, sino que abre el camino a un nuevo proceso creativo en el que puedes pelotear con la máquina, subiendo tu propio trabajo, pidiendo una descripción y luego jugando con el prompt resultante para explorar nuevos caminos.
La nueva revolución en Hollywood
La compañía Metaphysic primero asombró al mundo con sus vídeos deepfake de Tom Cruise, luego dejó a los fans alucinando con la nueva gira de ABBA y finalmente dejó a todo el mundo boquiabierto resucitando a un joven Elvis en el programa de America's Got Talent. La empresa acaba de firmar un acuerdo con CAA — la mayor agencia de talentos del mundo — para abducir las almas digitales de actores y músicos usando perfiles biométricos de IA que permitirán que puedan actuar en cualquier lugar, en todas partes y hasta el fin de los tiempos sin pisar un estudio o localización. Y además eternamente jóvenes — para sufrimiento de los cirujanos plásticos de Hollywood — e incluso después de muertos. Un buen ejemplo de esta tecnología es el Harrison Ford joven en el trailer de la última de Indiana Jones.
Ahora, el cofundador y consejero delegado de Metaphysic, Tom Graham, ha hecho su pacto con el diablo digital y se ha convertido en el primer ser humano que ha registrado su perfil biométrico de IA en la Oficina de Derechos de Autor de Estados Unidos. Aunque esto no parezca útil ahora, lo será dentro de unos años, cuando cualquier pueda dirigir su propia película, serie o clip de Tik Tok utilizando vídeo generativo en tiempo real, protagonizada por cualquier actor con ese perfil (después de pagar el dinero por la licencia de uso, claro).
Gen-2 puede crear vídeo con palabras
Hablando de vídeo generativo, ahora cualquier puede utilizar la nueva plataforma Gen-2 de Runway, un sistema que te permite conjurar cualquier videoclip que puedas imaginar con sólo poner una frase descriptiva. Al igual que los perfiles de IA de Metaphysic, esto no parece muy útil para la producción real en este momento, pero te recomiendo que lo pruebes para que te hagas una idea de hacia dónde vamos..
No hay más que ver lo que el director afincado en Los Ángeles Paul Trillo ha creado sólo con sólo una descripción:
¿Es surrealista? Sí. Imperfecto también. ¿Asombroso? Totalmente. Como dice Trillo: “Puso en jaque todo lo que sabía sobre la creación de imágenes".
Estamos siendo testigos un momento histórico, un punto de inflexión que, como ya dije en el episodio del Fin de la Realidad de la serie de Control Z, cambiará la manera en la que percibimos el mundo para siempre. Este surrealista ejemplo es sólo la semilla de lo que está por llegar muy pronto, como me comentó Bryan Catanzaro — vicepresidente de investigación aplicada de aprendizaje profundo en Nvidia — en una entrevista por videoconferencia el año pasado.
En unos cinco años se podrá crear vídeo de alta definición totalmente coherente y realista, me contó. Y, en una década, cualquiera podrá crear de forma interactiva películas y series completas, igual que hace hoy un director con un equipo de cientos de personas. Esto no significa que vayamos a tener 5.000 millones de ‘Citizen Kanes’ en el mundo, pero esta revolución permitirá que cualquier persona creativa pueda conjurar cualquier historia sólo con su imaginación.
Bola extra: capturar la realidad para luego manipularla
Otra noticia clave algo más esotérica de propina. Si no conoces todavía los NeRF, es el acrónimo en inglés de campo de brillo neuronal, un modelo de IA capaz de transformar unas cuantas fotos normales para convertirlas en escenas tridimensionales que parecen reales sin saber nada de 3D. Esto es lo que hace la aplicación Luma utilizando vídeo capturado con tu iPhone.
Introducing the Luma✨Unreal Engine alpha! Fully volumetric Luma NeRFs running realtime on Windows in UE 5 for incredible cinematic shots and experiences, starting today!
— Luma AI (@LumaLabsAI) April 3, 2023
Try now: https://t.co/mdyGTWhhgN pic.twitter.com/Lj1Lm3F2P4
Ahora, la empresa que desarrolla Luma acaba de lanzar un plug-in que permite a cualquiera arrastrar y soltar estos entornos directamente en Unreal Engine, creando entornos instantáneos para videojuegos y producción de vídeo, algo que ahorrará meses de trabajo a profesionales. Si no has probado Luma todavía, te lo recomiendo.
El tren de la inteligencia artificial generativa sigue avanzando a toda máquina, sin frenos y cuesta abajo del agujero de gusano hacia la singularidad y el colapso de la realidad. Si la hipervelocidad te ciega los ojos y te abrasa el cerebro más rápido de lo que el Steve Wozniak puede decir “norl!”, no te preocupes, amigo mío: aquí tienes el resumen de las tres noticias fundamentales que realmente necesitas saber hoy.