La gran batalla de la IA solo acaba de empezar. Y este español la está librando en primera fila
Jordi Ribas, vicepresidente de Microsoft y encargado de su buscador e IA, es una persona clave para tratar de doblegar el dominio de Google. Hablamos con él de los retos, las posibilidades y el futuro de esta carrera tecnológica
"Quiero poner a bailar a un gorila de 800 libras". La idea es cosa de Satya Nadella, máxima autoridad de Microsoft. Era principios de 2023 y el CEO de la multinacional estadounidense pronunció esa declaración de intenciones pocas horas después de presentar Bing Chat, una nueva versión de su buscador. Se trataba del primer producto nacido de su matrimonio con OpenAI, una empresa en la que pocas semanas antes había inyectado la friolera de 10.000 millones de dólares.
El gran simio al que Nadella se refería era Google. No había ofensa ninguna en sus palabras. La expresión se utiliza para definir algo, en este caso una empresa, que es dominante o incontrolable debido a su tamaño. En resumen, el principal ejecutivo de la compañía confiaba en que la inteligencia artificial que da vida a un producto como ChatGPT tuviese un efecto similar al de la hormona del crecimiento en un actor de reparto como Bing y pudiese abrir una brecha en la popularidad del buscador más conocido del planeta. La misión, sobra decirlo, era harto complicada: los californianos dominan cerca del 90% del mercado. En ese momento, ellos rondaban una cuota del 7 o el 8%, dependiendo la fuente que se consultase.
La cuestión es que uno de los encargados de encontrar la canción que haga que el gorila de Mountain View empiece a menearse es el español Jordi Ribas (Manresa, 55 años), vicepresidente corporativo de Microsoft. Se trata de un veterano directivo que lleva tres décadas instalado en Estados Unidos, que ha pasado un cuarto de siglo trabajando en la empresa de Redmond y lleva casi diez cursos al frente de su buscador y su estrategia de IA. Recibe a El Confidencial pocas horas antes de recoger el premio Influyentes 2024 en la categoría de Innovación, que este periódico le ha concedido por su dilatada carrera y por su aportación al desarrollo de soluciones y productos basados en inteligencia artificial.
"Absolutamente. Sin lugar a dudas", contesta Ribas cuando se le pregunta si el cambio pretendido por Nadella ha comenzado. "Bard, ahora Gemini, o AI Overviews son cosas que han hecho como reacción a nuestros lanzamientos", sostiene. Confiesa que, al igual que en otras empresas e instituciones, tiene muchos colegas en Google con los que comparte impresiones. "Cuando apareció ChatGPT lo vieron como algo divertido, llamativo, que podía hacer cosas de manera sorprendente. Pero tenía la limitación de que sus datos de entrenamiento solo abarcaban hasta septiembre de 2022. No se le podía preguntar por eventos reciente", apunta. "Pero entonces nosotros integramos la tecnología GPT-4 en las búsquedas y ahí se dieron cuenta de que las cosas podían cambiar, que tenían que innovar".
Para el momento en el que Microsoft había activado su buscador con inteligencia artificial generativa en medio mundo, Google solo había sido capaz de enseñar un ejemplo de su chatbot. Además, el video de presentación contenía un error que hizo que miles de millones de capitalización de Alphabet, su matriz, se esfumasen en unas horas. El responsable de Bing reconoce que en Microsoft pudieron ser "más rápidos" porque eran "mucho más pequeños" en el mercado de las búsquedas. "Al ser tan dominantes en la industria, ellos se juegan mucho más, tienen más riesgos. Nosotros estábamos en condiciones de tomar la iniciativa y decidimos llevar esta innovación al mercado pronto con el objetivo de crear competencia, que toda la industria fuese para adelante".
Cuando se le pregunta por el acelerado transcurso de los hechos de los últimos años, dice que ha sido un año y medio "espectacular en muchos aspectos". "Desde hace más de 15 años no se había innovado tanto en el campo de las búsquedas", afirma. "Meses antes de hacer la integración de GPT-4, pensábamos que este tipo de búsquedas complejas íbamos a tardar muchos años. Sin embargo, en unos pocos meses nos encontramos con que ya éramos capaces de gestionarlo".
Ribas explica que los retos han venido en muchos frentes. En lo que se refiere al buscador, dice que el desafío no ha sido solo la integración de los modelos de lenguaje, sino también repensar el aspecto de una cosa tan universal como un buscador que estaba consolidado, muy probado y muy aceptado. Explica que han tenido que la inteligencia artificial generativa no ha sido novedosa solo para los usuarios, sino que ellos mismos han tenido que aprender a "reaccionar rápido" y a "poner salvaguardas", según diversas personas han ido encontrando usos no previstos para la tecnología.
Ahora mismo, el ingeniero catalán trabaja codo con codo con Mustafá Suleyman, uno de los fundadores de DeepMind, probablemente la que fue la empresa de IA más influyente hasta que apareció OpenAI y que Google adquirió hace diez años. Microsoft sorprendió con el fichaje de este investigador en marzo para dirigir los esfuerzos en esta materia. En los dos últimos años, Suleyman se había volcado en su propia startup, Inflection AI, que perseguía crear una suerte de bot personal que brindase apoyo emocional a los usuarios.
"Es un investigador de referencia y trajo a mucha gente de su empresa consigo. Su gente de una manera más parecida a una startup, algo diferente a la nuestra, que es una manera más tradicional", describe Ribas, que asegura que esta situación les está ayudando a pensar de forma diferente. "El Copilot en el que empecé a trabajar estaba muy centrado en la productividad. Él [Suleyman] tiene un punto de vista más cercano al consumidor final, algo que sea un asistente, un compañero del día a día. Es un enfoque diferente, pero a la vez parecido, porque el objetivo final es que se ayude a completar tareas".
Teniendo al responsable de integrar la inteligencia artificial en el buscador delante, es inevitable preguntarle si todos estos esfuerzos se han dejado notar en la cuota de mercado de Bing, todavía nueve veces menor que la de Google. "Cuando empezamos todo este proceso, teníamos 100 millones de usuarios diarios activos en todo el mundo. Ahora tenemos 140", detalla, a la vez que afirma que en países como EE.UU. han crecido un 2% en penetración. Eso se ha traducido en aumento de ingresos en publicidad.
"Cuando empezamos con todo esto, teníamos 100 millones de usuarios activos al día. Ahora tenemos 140 millones"
Estos meses también les han servido para ver cómo actúan los usuarios cuando se incluye algo como ChatGPT en un buscador tradicional, algo que Google se ha atrevido a hacer, por ahora, solo en Estados Unidos. "Cuando saben dónde van, utilizan el formato de búsqueda tradicional. Sin embargo, cuando son consultas complejas, de investigación o de conocimiento, recurren a Copilot".
Si se le pregunta por cómo ha afectado al tráfico que envía a las webs la integración de una IA que elabora las respuestas automáticamente, Ribas sorprende contestando que, en el caso de Bing, ha aumentado, por el efecto llamada que ha tenido la novedad del chatbot. Al aumentar la gente que les visitaba, también aumentaba la gente que utilizaba el buscador de toda la vida. Admite que este, el asunto de las visitas, es uno de los aspectos más cruciales que toca definir. "No podemos obviar que, como buscador, una de nuestras razones de existir es enviar tráfico a los editores y creadores del contenido".
¿Quién paga la fiesta de la IA en las búsquedas?
La inteligencia artificial generativa no es barata. Se ha escrito mucho sobre el coste que tiene entrenarlas. La factura es elevada. Hay que invertir en las tarjetas gráficas de Nvidia, que están por las nubes teniendo en cuenta la demanda; pero también hace falta construir centros de datos que consumen ingentes cantidades de recursos, como agua y luz.
Empresas como la propia Microsoft, Google o Amazon han empezado incluso a dedicar dinero a cerrar acuerdos con empresas dedicadas a la energía nuclear con el fin de asegurarse la electricidad suficiente. Pero, ¿cómo se paga toda esta fiesta? Es algo que se preguntan muchas personas. Incluso los inversores han pegado algún tirón de orejas a las empresas involucradas en esta pelea cuando aparecen las dudas de si habrá retorno de todo lo gastado.
Esta duda resuena aún más cuando se trata de un producto gratuito como un buscador. ¿Cómo se cubre el coste de las respuestas de IA generativa si tan costosas son generarlas? Ribas es meridianamente claro al decir que Bing, a día de hoy, "es un producto que genera dinero" y explica que hay muchas maneras de trabajar en la eficiencia de los modelos y las herramientas de IA. Asegura que ellos han conseguido enseñar a su chatbot a distinguir cuán compleja es la consulta y utilizar los recursos más adecuados. "No todas las preguntas necesitan el modelo de lenguaje más complejo", apunta.
"El cerebro de un niño de tres años utiliza menos energía y datos que una Inteligencia Artificial. Y hace cosas que ellas no pueden"
Otro de los retos que se presentan por delante es el asunto de los datos necesarios para entrenar estas inteligencias artificiales. Después del caos inicial y los conflictos por copyright, empresas como OpenAI, la propia Microsoft o Google están cerrando acuerdos con distintas compañías e instituciones con este fin. Sin embargo, hay informes que alertan de que en los próximos años, los datos de calidad podrían agotarse. En este punto, Ribas defiende la calidad de los datos sintéticos como alternativa.
Pero este experto también hace hincapié en que hay que explorar otras vías para que los desarrollos no sean un agujero negro de información y electricidad. "Piensa en el cerebro de un niño de 3 años. Necesita mucha menos energía y muchos menos datos, y hace cosas que una IA no puede hacer", expone. Otros investigadores de renombre, como Yann LeCun, científico jefe de IA de Meta, apuntan en esa misma dirección.
Aunque los actuales modelos de lenguaje se pueden alimentar con toda la información escrita del mundo, hay aspectos inalcanzables para ellos que los separan de la inteligencia humana. No pueden aprender en el momento, no pueden razonar ni tienen el mapa mental que les explique cómo funciona el mundo. Y así un largo etcétera... Un niño de corta edad, sin embargo, sí dispone de estas dotes. Ribas subraya que hay multitud de universidades y empresas investigando todos estos campos. "Si no se avanza en esos aspectos, se puede llegar a un momento en que los actuales modelos lleguen a colapsar y alcanzar el máximo de sus capacidades".
¿Qué es lo que viene?
Pero hasta que ese momento de atasco llegue, si es que llega, hay mucho por delante. Ribas, que ya está trabajando con lo que el común de los mortales podrá utilizar dentro de unos meses, adelanta que en el próximo año y medio veremos la consolidación de las inteligencias artificiales multimodales (esas que son capaces de entender audio, video, foto, texto y también expresarse de estas formas) y aventura que habrá una reducción notable de las alucinaciones y errores que cometen estos sistemas.
En el lado del usuario también vendrán cambios. El futuro de las búsquedas parece pasar únicamente por los chatbots, pero nada más lejos de la realidad. Una de las funciones que dentro de poco estará al alcance de cualquiera será la búsqueda visual. Junto a los iPhone 16, se anunció una herramienta similar a Google Lens, que permite sacar una foto o tomar una imagen de internet e identificar el restaurante, la prenda o el paisaje en cuestión. Microsoft también se ha subido a ese carro con Bing Visual. "La búsqueda visual existe desde hace tiempo, pero es cierto que los avances en aprendizaje automático y las redes neuronales lo han hecho mucho más práctica".
Pero si algo ha dado que hablar en las últimas semanas son los modos de voz de ChatGPT o de Gemini, que, por cierto, ya está disponible en español. Muchos han asegurado que la IA generativa es una segunda oportunidad para los asistentes de voz, al reforzar la calidad de las respuestas, lo que pueden hacer o no, así como la humanidad y naturalidad con la que se expresan.
Otros, sin embargo, también alertan de que esto puede empujar a los usuarios a establecer relaciones personales con estos sistemas, una situación distópica que ya adelantó la película ‘Her’. "Cuando nosotros teníamos Cortana, que era una tecnología mucho más básica, ya detectamos que había gente que se pasaba horas y horas hablando con ella", recuerda. "Se tiene que saber siempre que estás hablando con una máquina. Y los productos deben ser responsables", advierte.
Muchas de las novedades y desarrollos de inteligencia artificial que empresas como Microsoft crean se lanzan mucho antes en otros países y mercados. Meses después llegan a Europa, muchas veces atados en corto o modificados para cumplir con la normativa comunitaria de protección de datos. En algunos casos, como el de Meta, ni llegan. Estos puntos han generado una fuerte discusión sobre dónde se debe colocar la regulación para que sea garantista con los usuarios y las empresas locales, pero que no constriña la innovación local.
"Cuando teníamos Cortana, ya detectamos que había gente que se pasaba horas hablando"
"Regulación tiene que haber y es necesaria", dice Ribas. Y pone de ejemplo el caso del reconocimiento facial. "Nosotros hemos empleado esa tecnología con una ONG local para encontrar niños perdidos, incluso cuando han pasado años, y ha sido muy efectiva. Pero si no hay normas, por mucho que pueda beneficiar a empresas locales, ocurre que el Gobierno acaba utilizándolo para el control ciudadano", reflexiona. En el caso de la UE, cree que se ha puesto en el "otro extremo". "Ha optado por ser muy garantista, controlar la privacidad, controlar todo lo que se produce... pero eso incrementa también la burocracia". En su opinión, hay que encontrar un punto de equilibrio entre una postura y otra, que proteja los derechos, pero que no lastre la innovación. ¿Por qué hay políticas y regulaciones tan distintas en los países occidentales? "En lo público hay gente muy buena y con mucho talento. Las diferencias muchas veces viene porque algunos abordan la tecnología desde un punto de vista más académico, más filosófico. Hay otros que lo hacen desde un punto de vista más pragmático. Lo que hay que hacer es establecer canales fluidos, sinceros y transparentes con ellos para encontrar ese punto justo".
"Quiero poner a bailar a un gorila de 800 libras". La idea es cosa de Satya Nadella, máxima autoridad de Microsoft. Era principios de 2023 y el CEO de la multinacional estadounidense pronunció esa declaración de intenciones pocas horas después de presentar Bing Chat, una nueva versión de su buscador. Se trataba del primer producto nacido de su matrimonio con OpenAI, una empresa en la que pocas semanas antes había inyectado la friolera de 10.000 millones de dólares.
- Este invento de Google me hace pensar que el ChatGPT que uso desde hace meses está viejo Michael McLoughlin. Montain View (California)
- La profecía de Sam Altman que se ha vuelto en su contra y anticipa el auge de un nuevo tipo de empresa M. Mcloughlin
- Silicon Valley promete que vivirás como en la película 'Her'. La realidad es más complicada Michael Mcloughlin Ilustración: Sofía Sisqués