Es noticia
Un nuevo ChatGPT que piensa por ti: esta sorpresa de Google da pistas de lo que viene
  1. Tecnología
ESTÁ COCINANDO ALGO NUEVO

Un nuevo ChatGPT que piensa por ti: esta sorpresa de Google da pistas de lo que viene

Si hace unos días Google anunciaba un chip cuántico que era capaz de hacer una operación en 5 minutos que el mejor superordenador del mundo tardaría

Foto: Sundar Pichai. Foto: Efe.
Sundar Pichai. Foto: Efe.

Si hace unos días Google anunciaba un chip cuántico que era capaz de hacer una operación en 5 minutos que el mejor superordenador del mundo tardaría un tiempo superior a la edad del universo en resolver, este miércoles ha desvelado un as en la manga que se guardaba en la carrera tecnológica del momento, la de la inteligencia artificial. La compañía de Mountain View ha presentado una nueva generación de Gemini, su modelo de lenguaje, que supone un nuevo golpe de pedal en las capacidades de herramientas como ChatGPT. Ahora esta inteligencia artificial es capaz de planificar, recordar y actuar en tu lugar. Aunque sus capacidades se van a probar, como acostumbra la compañía, en pequeños grupos en Estados Unidos, es un aperitivo del capítulo que está a punto de abrirse en la industria: la era de los agentes inteligentes.

Foto: Sergio Boixo lleva más de una década en Google. Foto: CEDIDA.

"Creemos que el desarrollo responsable de la IA empieza desde el principio", ha explicado la compañía de Mountain View en un comunicado antes de anunciar que el Project Astra ya ha dejado de ser un proyecto interno y que ya está en manos de "un pequeño grupo de probadores de confianza". Este proyecto enseñó la patita en el pasado I/O, la conferencia anual que celebró la multinacional el pasado mes de mayo. En aquel momento, Demis Hassabis, el investigador de referencia de la compañía en todo lo que se refiere a la inteligencia artificial, subió al escenario para presentar el desarrollo. Sus explicaciones venían acompañadas en un video grabado en tiempo real donde se veía este agente en plena accion.

Una joven lo utilizaba a través de la cámara de un móvil para identificar lo que había a su alrededor, para saber qué es lo que se veía por la ventana o para entender el código fuente que un compañero de oficina estaba escribiendo en una pantalla. En un momento del vídeo, la protagonista se pone unas gafas y el asistente funciona también en ese objeto. Ahora, el Project Astra ha sido mejorado con los nuevos modelos de Gemini. Estos avances refuerzan la idea de que la multinacional dirigida por Sundar Pichai está preparando unas nuevas Google Glass, en esta ocasión potenciadas por las virtudes de la IA.

placeholder Demis Hassabis. Foto: Reuters.
Demis Hassabis. Foto: Reuters.

No es ni mucho menos el único agente inteligente, que es como en el mundillo se refieren a las inteligencias artificiales capaces de tomar el control de tu dispositivo para ciertas acciones en base a tus instrucciones, que han anunciado. La compañía tambien ha presentado el Proyecto Mariner, una herramienta que empezará a funcionar, por ahora, en Chrome. También habrá un asistente de esta naturaleza pensado para desarrolladores que se integrará en GitHub y uno orientado a ayudar en la navegación por mundos virtuales o por el espacio físico. De momento no hay fecha para su lanzamiento en abierto o en otros países y la compañía ha insistido en que se trata de prototipos.

Lo que sí va a ser accesible va a ser una versión experimental de Gemini 2.0 Flash, el primer modelo de la familia 2.0. Se trata de un modelo de baja latencia, que ahora llega con "rendimiento mejorado". Cualquier usuario podrá utilizarlo en la aplicación de Gemini, seleccionando esta opción en la configuración. Los desarrolladores podrán también echar mano de este nuevo modelo a través de AI Studio y Vertex AI.

Google no es la única que está en esta faena. Anthropic, una startup fundada por exingenieros de OpenAI e invertida, entre otros, por Amazon, presentó hace unas semanas una nueva entrega de su modelo de lenguaje, Claude 3.5 Sonnet, que incorporaba una función experimental llamada ‘Computer Use’, que le permitía imitar pulsaciones de teclas, clics y gestos del ratón. En resumen, emular a un usuario de carne y hueso.

“Entrenamos a Claude para ver lo que está sucediendo en una pantalla y luego usar las herramientas de software disponibles para llevar a cabo tareas”, escribió la compañía en su blog oficial, dando a entender que esto iba a acabar sirviendo para automatizar ciertos procesos. “Cuando un desarrollador le asigna el uso de un software y le da el acceso necesario, Claude mira las capturas de pantalla de lo que es visible para el usuario y luego cuenta cuántos píxeles vertical y horizontalmente necesita para hacer clic en el lugar correcto”. En Ignite 2024, la cumbre de desarrolladores de Microsoft, los de Redmond hablaron abiertamente sobre sus apuestas en esta vía. La firma dirigida por Satya Nadella ha asegurado que dentro de poco sus agentes de inteligencia artificial podrán funcionar las 24 horas del día “para revisar y aprobar devoluciones de clientes o revisar facturas de envío para ayudar a las empresas a evitar costosos errores en la cadena de suministro”.

Si hace unos días Google anunciaba un chip cuántico que era capaz de hacer una operación en 5 minutos que el mejor superordenador del mundo tardaría un tiempo superior a la edad del universo en resolver, este miércoles ha desvelado un as en la manga que se guardaba en la carrera tecnológica del momento, la de la inteligencia artificial. La compañía de Mountain View ha presentado una nueva generación de Gemini, su modelo de lenguaje, que supone un nuevo golpe de pedal en las capacidades de herramientas como ChatGPT. Ahora esta inteligencia artificial es capaz de planificar, recordar y actuar en tu lugar. Aunque sus capacidades se van a probar, como acostumbra la compañía, en pequeños grupos en Estados Unidos, es un aperitivo del capítulo que está a punto de abrirse en la industria: la era de los agentes inteligentes.

Inteligencia Artificial