El internet que conoces está muriendo y hasta su máximo exponente se ha preparado para ello
Gemini se convierte definitivamente en el centro de buscador de Google con AI Mode. La compañía ha presentado nuevas IAs que razonan más que nunca, generan videos hiperrealista o traducen una videollamada en tiempo real
:format(jpg)/f.elconfidencial.com%2Foriginal%2F7bd%2Ffc6%2Faa5%2F7bdfc6aa5431d133fe549acc4eaff867.jpg)
A finales de 2022, OpenAI pone en circulación un invento llamado ChatGPT y, en ese mismo instante, se produce una suerte de Big Bang en torno a la inteligencia artificial generativa, una tecnología casi desconocida en aquel momento por el gran público, a pesar de que desde el primer minuto promete cambiar la vida de miles de millones de almas más pronto que tarde y afectar directamente a la forma en la que estudian o trabajan.
Aquello promete ser un quebradero de cabeza para muchos, pero hay un lugar donde se posan todas las miradas: Mountain View, hogar de Google, donde se encienden todas las alarmas. La razón es que, por primera vez en toda su existencia, hay un posible competidor que puede posicionarse como la opción predilecta de más de medio mundo para navegar por la web, y eso puede ser un misil en la línea de flotación del corazón de su negocio: la publicidad online.
La eficacia del buscador más utilizado del mundo ya se venía cuestionando desde hace un tiempo, por el abuso de los resultados patrocinados o el exceso de contenido SEO, pero hasta ahora no existía una alternativa viable. Eso ha cambiado. ¿Quién va a querer navegar por un listado de enlaces, pinchando en uno y en otro, a veces incluso repitiendo los términos de búsqueda, hasta encontrar algo parecido, cuando un chatbot puede darte una respuesta completa en unos segundos?
Hace unos días, Eddy Cue, vicepresidente mundial de Servicios de Apple, arrojaba la enésima bengala: por primera vez en 22 años las búsquedas de Google en Safari, el navegador de la compañía, se habían reducido. Aquello, además de provocar una caída de las acciones de Alphabet, apuntaló la certeza de que la inteligencia artificial generativa iba a ser una nueva forma de navegar y encontrar las cosas que queremos en la web.
:format(jpg)/f.elconfidencial.com%2Foriginal%2F6e6%2F957%2Ff19%2F6e6957f19a09ae485c1a396ed6617ef6.jpg)
El internet con el que cientos de millones de personas han crecido se está muriendo. Hasta su máximo exponente, Google, lo está reconociendo. El I/O 2025, su conferencia anual que se celebra desde este martes en Silicon Valley, es una muestra más de ello. Y también es una señal de que están preparándose para la nueva etapa que se abre. La compañía ha hecho una demostración de fuerza y ha lanzado un mensaje para aquellos que llevan meses especulando con que su futuro pintaba negro por culpa de inventos como ChatGPT: quieren seguir siendo la viga maestra sobre la que se sostiene la información en internet para millones de personas.
En el primer I/O tras el ‘chatgepetazo’, Google anunció que también iba a tener su propio chatbot, Bard, que con el paso del tiempo se pasaría a llamar Gemini. Entre muchas otras cosas, también adelantaron que su tecnología se integraría en el buscador de siempre, de forma que en algunas búsquedas un módulo llamado AI Overviews aparecía en lo más alto, con una respuesta generada por inteligencia artificial.
La función, que dio que hablar por alucinaciones como recomendar echar pegamento a la pizza en sus primeros pasos, se fue perfeccionando y poniendo a prueba en grupos reducidos hasta que se activó en Estados Unidos. Un año después, en mayo de 2024, la multinacional abrió la caja de los truenos y lanzó en decenas de países su nuevo buscador en abierto. A día de hoy, esta función cuenta con 1.500 millones de usuarios al mes, según cifras de la compañía.
IA para comprar, programar y tomar decisiones
Y doce meses más tarde, Google da un paso más en esa dirección, la de reemplazar las búsquedas tal y como las conocemos. Ha integrado un nuevo AI Mode en su página y en su aplicación móvil. De manera que ya podrás acceder directamente a las capacidades de Gemini desde su buscador. Seleccionando esa pestaña, se accede directamente a la ventana del chatbot. Bastará que introduzcamos nuestra consulta para que el sistema nos genere una respuesta a medida.
En el AI Mode se podrá utilizar también el modo deep research, que ofrece respuestas más completas y razonadas; así como las capacidades de Gemini Live, que nos permite conversar y preguntar sobre lo que se ve en pantalla o a través de la cámara. También se podrán conectar nuestras cuentas de Gmail para ofrecernos respuestas más adaptadas y personalizadas, así como resumir o hacer gráficos cuando nuestra petición lo requiera.
"Todo este progreso significa que estamos en una nueva fase del cambio de plataforma hacia la IA"
Este paso adelante de Google no es solo una maniobra para dar más visibilidad a Gemini y fortalecer su adopción frente a la mencionada ChatGPT, Copilot o soluciones más especializadas como Perplexity. También es una manera de no desenchufar su actual buscador de un día para otro. No hay que olvidar que a día de hoy le sigue generando unos ingresos tremendos anualmente.
"Hay más inteligencia disponible, para todos y en todas partes. Y el mundo está respondiendo, adoptando la IA más rápido que nunca... Todo este progreso significa que estamos en una nueva fase del cambio de plataforma hacia la inteligencia artificial. Una en la que décadas de investigación se están convirtiendo en realidad para personas, empresas y comunidades de todo el mundo", ha defendido Sundar Pichai, CEO de la compañía, al inicio de la presentación, donde ha asegurado que el buscador de Google ha sido la plataforma a través de la que más personas han entrado en contacto con la IA hasta el momento. "AI Mode es la forma más avanzada de explorar la web que existe", ha afirmado a este respecto, Liz Reid, la máxima responsable del negocio de búsquedas de la multinacional.
Pero AI Mode, que de momento solo está disponible en EEUU, también puede agravar la caída de tráfico que reciben muchas páginas de internet. Y esto es un problema para los editores de estos sitios, pero también para la propia compañía, porque se reducen los impactos de publicidad, que no deja de ser su principal sustento. Todavía hay muchas respuestas que quedan en el aire, pero Google también ha empezado a mostrar cómo pretende rentabilizar la IA en este contexto. Por ejemplo, el AI Mode utilizará agentes inteligentes, esas IA que son capaces de hacer acciones por nosotros y tomar el control de alguna parte de nuestro ordenador o nuestro móvil, para que podamos pedirle que nos busque entradas baratas para un partido o unos vuelos en una determinada fecha.
:format(jpg)/f.elconfidencial.com%2Foriginal%2Fa3a%2F13b%2F49c%2Fa3a13b49c7f51bcd74e9dd0276894441.jpg)
:format(jpg)/f.elconfidencial.com%2Foriginal%2Fa3a%2F13b%2F49c%2Fa3a13b49c7f51bcd74e9dd0276894441.jpg)
El sistema utilizará los últimos modelos de lenguaje de Gemini para ajustarse a nuestra petición, ofrecernos las entradas que buscamos y, si nos encaja, ofrecerse a comprarlas.
La IA generativa también va a entrar hasta la cocina en Google Shopping, el comparador de productos de la compañía y una de las plataformas que aglutina mayor inversión publicitaria de ecommerce a nivel mundial. Cuenta con 50.000 millones de productos listados que se refrescan constantemente, a un ritmo de 2.000 millones la hora, según datos de la compañía. Pues bien, ahora los usuarios van a poder activar un seguimiento de precios, que les genera avisos cuando el precio baje e incluso ofrecer la posibilidad de compra al momento. Además, han creado una nueva herramienta que permitirá a los usuarios, solo con una foto suya de cuerpo entero, probarse esa camiseta o vestido que han encontrado navegando por internet.
Google utilizará IA generativa para poder probarte un look que encuentres solo con una foto tuya. pic.twitter.com/gpmAVZ4S2Q
— Michael McLoughlin 🐦 (@michaelMCsaez) May 20, 2025
De esta manera, Google confirmó que la industria está acelerando la carrera por popularizar los agentes de inteligencia artificial, que ya no son herramientas que se ofrecían en casos muy concretos, sino que van a estar a disposición de cualquier persona hasta en la web. Llamarlos agentes de IA no es una manera rimbombante de decir que los chatbots ahora hacen más cosas.
Es un cambio profundo: estas herramientas ya no se limitan a responder preguntas o crear fotos o videos con nuestras instrucciones, sino que ejecutan tareas complejas por su cuenta, a veces encadenando unas tareas con otras y aprendiendo en cada paso o en cada error. El objetivo de Google, como ya explicó cuando presentó Project Astra, es crear un agente de IA omnipresente y que sea capaz de entendernos y ayudarnos en nuestro día a día, no solo entendiéndonos sino haciendo todo tipo de acciones complejas por nosotros, como se puede ver en el siguiente video.
Este video explica muy bien el concepto de asistente total que quiere Google. #GoogleIO pic.twitter.com/CHkPxhPB3g
— Michael McLoughlin 🐦 (@michaelMCsaez) May 20, 2025
Todos los grandes implicados en la IA generativa ya han hecho algún que otro anuncio en este sentido. Desde OpenAI hasta Anthropic. Este mismo lunes Microsoft celebró su particular I/O, lo que ellos llaman Build 2025 y lanzó un enjambre de agentes. Anunciaron una expansión masiva en este sentido. Github Copilot podrá asumir tareas repetitivas de programación, Sales Agent y Sales Chat podrán encargarse de partes de la atención al cliente y Security Copilot promete detectar ciberamenazas y las solucionará sin que nadie se lo ordene. Incluso han presentado uno que analiza los datos y las referencias de una fábrica en tiempo real e introduce cambios en los procesos y en el funcionamiento.
:format(jpg)/f.elconfidencial.com%2Foriginal%2Fa2a%2F890%2Fb24%2Fa2a890b2491c6eb8b70eca4d884fb84f.jpg)
:format(jpg)/f.elconfidencial.com%2Foriginal%2Fa2a%2F890%2Fb24%2Fa2a890b2491c6eb8b70eca4d884fb84f.jpg)
Google, que ya lleva tiempo experimentando con los agentes de IA, ha presentado uno destinado para programadores. Bautizado como Jules, no solo es capaz de escribir código de manera autónoma, sino que también de forma asíncrona. Se integra en los repositorios del programador y realiza tareas por él. Esta herramienta ya está disponible públicamente en estado beta en Estados Unidos.
Google quiere Gemini en todas partes. Después de llevarlo a los móviles, relojes, televisores o coches con Android Auto, la compañía desveló a principios de año que está trabajando también en un nuevo sistema operativo, Android XR para dispositivos como gafas y cascos de realidad mixta. Hasta ahora, lo único que habían mostrado era un prototipo de casco al estilo del Vision Pro, desarrollado junto a Samsung.
Hoy han anunciado un formato más cercano al de las Ray-Ban Meta, para lo cual han firmado acuerdos con Gentle Monster y Warby Parker, fabricantes de gafas con sede en Seúl y Nueva York, respectivamente. Diez años después de las fallidas Google Glass, la compañía vuelve al ruedo con una propuesta que recuerda pero que poco se parece a aquel dispositivo. La montura contará con cámaras, micrófonos así como pantallas que serán capaces de mostrarnos información sobre ellas. Las patillas se encargarán de conducir el sonido a través del hueso. En la demostración hecha en vivo, han demostrado cómo es capaz de recordar información y cosas que ha visto, darte indicaciones en vivo o traducciones en tiempo real. La nueva plataforma se abrirá para desarrolladores a finales de este mismo año.
Demo de Android XR en unas gafas al estilo RayBan Meta. pic.twitter.com/2ekz3L3xlg
— Michael McLoughlin 🐦 (@michaelMCsaez) May 20, 2025
Modelos más inteligentes y capaces
La multinacional de Mountain View ha dedicado gran parte de la presentación a explicar cómo ha afinado sus modelos de inteligencia artificial más avanzados. Por ejemplo, Gemini 2.5, su IA más puntera, ahora puede generar audio de forma nativa, entre otras novedades.
La generación de voz de Gemini 2.5 Pro y Flash. 😧 pic.twitter.com/byqvyzDdzm
— Michael McLoughlin 🐦 (@michaelMCsaez) May 20, 2025
Cuando se enfrente a tareas especialmente complejas de matemáticas o programación, la versión más potente, Gemini 2.5 Pro utilizará un sistema de pensamiento paralelo para mejorar los resultados. Además, los desarrolladores contarán con resúmenes que explican la cadena de razonamiento seguido por la IA, lo que les permitirá entender cómo ha llegado a ciertas conclusiones y tener un mayor control. Según, LLMArena, uno de los rankings que mide el rendimiento de los diferentes modelos de IA, el nuevo modelo de Google se coloca por encima de toda la competencia.
También habrá una nueva versión más rápida y ligera bautizada como Gemini 2.5 Flash. Sus responsables han explicado que han logrado mejorar la eficiencia de este modelo, reduciendo el número de tokens que necesita para funcionar.
Unas semanas después de liberar Veo 2 —su IA generativa de vídeo para usuarios de pago de Gemini—, Google ha anunciado en el I/O la tercera generación de esta herramienta, con la que adelanta por la derecha a OpenAI y Sora. Esta nueva versión permite no solo generar vídeos hiperrealistas con pocas indicaciones con mayor calidad o mejor comprensión del mundo físico, sino también crear el audio de esos clips a partir de texto. Imagen 4, su modelo de generación de imágenes, también ha sido actualizado, y Lyria 2 —enfocado a la creación musical— está ahora disponible para más usuarios.
:format(jpg)/f.elconfidencial.com%2Foriginal%2Fe88%2F748%2F788%2Fe88748788ea6773e12fac68da883ed75.jpg)
Pero lo que más ha llamado la atención ha sido la plataforma de creación de vídeo que han presentado los californianos. Se llama Flow, y es una suerte de sala de montaje digital impulsada por sus modelos más avanzados (Veo 3, Imagen 4 y Gemini), pensada para generar escenas con calidad cinematográfica, mayor coherencia y continuidad.
Funciones como Flow no estarán disponibles de forma abierta, ni siquiera para la mayoría de los usuarios de pago. Google sigue así el camino marcado por otras compañías y lanza un plan de suscripción sensiblemente más caro: 249 dólares al mes, que da acceso a las herramientas más potentes y a ventajas exclusivas. Entre ellas: el uso de Flow, las versiones más avanzadas de Gemini, el acceso a Project Mariner (el paraguas que agrupa todos sus agentes de IA) y 30 terabytes de almacenamiento en la nube. Por ahora, este plan solo estará disponible en Estados Unidos.
Traducción en tiempo real en Meet gracias a la IA. #GoogleIO pic.twitter.com/lZXyEW46IL
— Michael McLoughlin 🐦 (@michaelMCsaez) May 20, 2025
El futuro de las videollamadas también ha tenido su momento en esta cita. Project Starline evoluciona ahora hacia una nueva plataforma centrada en IA llamada Google Beam. Se trata de una tecnología que permite realizar videollamadas en tres dimensiones sin necesidad de usar gafas. HP será la encargada de construir las primeras pantallas compatibles.
Además, se ha presentado Speech Translation, una función que traduce automáticamente y en tiempo real los idiomas hablados entre los participantes, conservando el matiz, la calidad y la personalidad de sus voces. Así, la comunicación puede fluir de forma natural, sin importar el idioma nativo. Estará disponible en inglés y castellano, y se expandirá progresivamente a más lenguas.
A finales de 2022, OpenAI pone en circulación un invento llamado ChatGPT y, en ese mismo instante, se produce una suerte de Big Bang en torno a la inteligencia artificial generativa, una tecnología casi desconocida en aquel momento por el gran público, a pesar de que desde el primer minuto promete cambiar la vida de miles de millones de almas más pronto que tarde y afectar directamente a la forma en la que estudian o trabajan.