Es noticia
El error de Facebook que ahora pone contra las cuerdas a Google y Open AI
  1. Tecnología
ASÍ HA ROTO LA BARAJA

El error de Facebook que ahora pone contra las cuerdas a Google y Open AI

Hace semanas una filtración dejó al desnudo el código de una de las inteligencias artificiales de Meta. Un descuido que ha ayudado a alimentar los rivales abiertos de Bard y ChatGPT y les ha metido miedo

Foto: Mark Zuckerberg, en una imagen de archivo. (Getty/Samuel Corum)
Mark Zuckerberg, en una imagen de archivo. (Getty/Samuel Corum)

"La estrategia de Meta con la inteligencia artificial ha sido poco clara hasta ahora". Esa puyita fue palabra de Sam Altman, fundador de Open AI y creador de ChatGPT, en una entrevista en la que también mostró su esperanza de que los de Menlo Park espabilasen y optasen por una hoja de ruta "más coherente". La declaración podría interpretarse como el clásico recado que ejecutivos rivales se lanzan a través de los medios de comunicación como quien saca un poco el codo en un balón dividido en un partido calentito.

Pero no. Aquí hay mucho más que un simple pique corporativo. Lo hay porque precisamente un error de la empresa antes conocida como Facebook ha provocado un cambio sustancial en el terreno de juego. Hasta hace poco todo lo que tenía que ver con la IA parecía llamado a ser una liga a la escocesa, una suerte de cortijo cuya titularidad se iban a disputar Google y el tándem Microsoft-Open AI. Mientras tanto, el resto de contendientes, Amazon o Apple, por citar algunos, se tendrían que conformar con observar todo desde la distancia y jugar en una liga inferior hasta que tuviesen su oportunidad.

Foto: Sundar Pichai, durante la presentación. Foto: Google

"La sorpresa del año"

La cuestión es que una filtración de uno de los desarrollos de Facebook (uno de los modelos de lenguaje que se utilizan para entrenar una inteligencia artificial) ha dado alas a una tercera vía más allá de Google y Microsoft. Una alternativa que no está liderada por ninguna gran tecnológica, sino por lo que se conoce como comunidad open source. Cuando parecía que subirse a este carro y lograr desarrollar una IA puntera parecía al alcance sólo de aquellos que tuvieran a su disposición una montaña de dinero, aparece un enjambre de soluciones abiertas y sin ánimo de lucro creadas por desarrolladores independientes y empresas pequeñas que han enmendado esa idea a pesar de tener muchos menos recursos.

Estos avances de la comunidad open source han sido reconocidos por el propio Altman, que ha llegado a definirla como "la sorpresa del año" y se ha declarado impresionado por el "ritmo frenético" que han llevado en los últimos seis meses. El problema es que "ese ritmo frenético" ha hecho saltar las alarmas una vez más en Google. Llevan así prácticamente desde que OpenAI y Microsoft se dieron el sí quiero y empezaron a meter inteligencia artificial en productos como Bing o el navegador Edge. Parecía que con los anuncios de su cumbre anual la situación se había calmado y se había acabado el relato de que al buscador más utilizado del planeta le habían comido la tostada con la IA y que su liderato estaba en riesgo. Pero nada más lejos de la realidad.

placeholder Foto: Google.
Foto: Google.

Un memorando escrito por un empleado de Google y filtrado en internet hace unos días reconocía abiertamente y sin tapujos que podían quedar desplazados por las alternativas open source. "La verdad incómoda es que ni ellos (Open AI) ni nosotros (Google) estamos posicionados para ganar esta carrera armamentística", afirmaba dicho documento. No era la única llaga en la que metía el dedo el autor. También criticaba con dureza el sentimiento de superioridad del que había pecado su empresa al mirar "por encima del hombro" a la compañía dirigida por Sam Altman y menospreciar sus posibilidades. La multinacionalidad reconoció la autencidad del escrito y salió al paso justificando que ese era un análisis individual y que en absoluto representaba el sentir de la organización.

"No estamos posicionados (ni Google ni OpenAI) para ganar esta carrera"

Pero a estas alturas es ya imposible deshacerse de ese poso de nerviosismo. Un nerviosismo que orbita en torno a una duda de cajón: si una alternativa gratuita llega a alcanzar una calidad pareja, ¿cuántos van a querer pagar por una solución cerrada como la que promocionan Google y OpenAI?

El papel de Meta

En todo este culebrón, Meta, una empresa que parecía desahuciada en lo que se refiere a la lucha por la IA y que estaba centrada en el metaverso, ha sido clave. Todo por una metedura de pata en forma de filtración.

A principios de este año puso en circulación LLaMa, su modelo de lenguaje para entrenar inteligencias artificiales. Lo hizo en un entorno controlado: solo se podía utilizar bajo invitación para profesionales académicos. Para lograrlo, había que darse de alta en una lista de correo electrónico y esperar a que la compañía estudiase tu petición, investigase tus intereses y tu perfil para recibir acceso.

Este tipo de precauciones son habituales en el negocio. Es más, sus rivales han criticado a Meta por un proceder que consideran laxo en materia de seguridad. La de Zuckerberg es una apuesta por un modelo más abierto, que permita a terceros utilizar sus desarrollos para trabajar sus propios chatbots y otras soluciones. Puede entrañar riesgos, porque no hay una monitorización estricta sobre el uso que se les da pero también ventajas porque tienes a muchas más gente haciendo experimentos con tu tecnología. Google y OpenAI son partidarios de lo contrario: estándares más cerrados. Entre otras cosas, porque entienden que si a una gran tecnológica le cuesta muchas veces controlar los resultados y evitar que las IA se descontrolen, los desarrolladores o instituciones más pequeñas van a tener todavía más problemas si se pone estos sistemas alegremente en sus manos.

Los creadores de la mayor red social del planeta han sufrido esos contratiempos en sus carnes. El pasado otoño tuvieron que retirar Galáctica, una IA pensada para ayudar a investigadores científicos. Duró solo 3 días en activo después de ponerse en marcha porque se convirtió en un ventilador de noticias falsas, inexactitudes y afirmaciones xenófobas. Antes de este episodio, ya habían tenido que desconectar un sistema porque había desarrollado su propio idioma, ininteligible incluso para sus desarrolladores.

placeholder Foto: Reuters/Dado Ruvic.
Foto: Reuters/Dado Ruvic.

Sea como sea las medidas de seguridad de Meta en torno a LLaMa no tardaron en saltar por los aires. Quedó al descubierto por una filtración anónima en 4chan, uno de los foros estadounidenses más conocidos y polémicos de internet. Concretamente, en la web circularon dos copias de LlaMA, incluida la versión completa del modelo que contaba con 65.000 millones de parámetros.

Esa cifra resulta pequeña en comparación con los parámetros que Open AI utilizó en GPT-3 (175.000 millones) o los que Google introdujo en la primera versión de PaLM o, más recientemente, en PaLM 2, que cuentan con 540.000 millones y 340.000 millones, respectivamente. Es cierto que los parámetros han perdido peso en favor del volumen de datos para indicar lo ambiciosa que resulta una IA (PaLM 2, por ejemplo, ha utilizado menos que su anterior versión) pero sigue siendo un indicador bastante fiable.

A partir de esa filtración cualquier persona, no únicamente las autorizadas, podían tener acceso a un modelo de lenguaje entrenado de una forma que hasta entonces solo estaba al alcance de una gran empresa como Alphabet, de un Microsoft, de un OpenAI o de un Meta. Solo ellos podían pagar los centros de datos, tarjetas gráficas y profesionales que hacen falta para crear algo tan capaz como ha demostrado ser ChatGPT en un tiempo razonable y con una eficaz. Para lograrlo también hacen falta años de desarrollo y de pruebas. Ahora cualquier desarrollador podía utilizar todo el trabajo previo de Meta para crear su propio producto solo con bajarse la documentación filtrada en un foro y ahorrarse mucho tiempo de picar piedra. Es como si hubiesen descubierto un atajo para empezar a competir en una media maratón en el kilómetro 12 y gracias a eso pudiesen llegar a la meta en mejores condiciones que las grandes estrellas de la competición, que llevan desde la línea de salida corriendo.

"Si la filtración no llega a ocurrir, no hubiésemos llegado a este punto"

Esta es la razón por la que fuga de información tuvo un efecto similar al de la hormona del crecimiento en las iniciativas open source. "Meta ya había publicado LLaMa de una manera abierta. Pero lo había hecho sin lo que se conoce como pesos, de una forma limitada. Podías conocer algunos aspectos, pero sin eso no podías replicarlo. Cuando se produce la filtración es cuando se recibe toda esa información necesaria para copiarlo y adaptarlo al gusto. Si eso no llega a ocurrir es prácticamente imposible que hubiésemos llegado a este punto con las iniciativas abiertas", sostiene José Luis Calvo Salanova, cofundador de la startup Diverger y exdirector de IA de la consultora Singular.

El citado memorando del empleado de Google sostenía que, aunque los desarrollos de su empresa seguían ligeramente por delante, la brecha se estaba cerrando rápidamente. "Los modelos de código abierto están siendo más rápidos, personalizables y privados. Están haciendo cosas con 100 dólares y 13.000 millones de parámetros que nosotros en Google hicimos con 10 millones de dólares y 540 mil millones de parámetros. Lo están haciendo en semanas, no en meses". Para Calvo Salanova aquí está la clave de la cuestión. "Han perdido lo que ellos llaman el foso. Las barreras de entrada para entrenar una IA hasta ahora eran insalvables si no eras una empresa de ese tamaño. Era en general, algo imposible de hacer", argumenta.

Foto: Mark Zuckerberg, en una imagen de archivo. (EFE/Ernesto Arias)

La comunidad open source funciona como "una guerrilla". Tienen menos recursos pero son cientos o miles de desarrolladores y proyectos trabajando con varias líneas en paralelo. "Algunas no llegarán a nada, otras sí y algunas pueden llegar todavía más lejos. Es esa naturaleza la que les permite avanzar más rápidamente que las grandes empresas, ya que ahora ya no hace falta tanto dinero". En este sentido, ya se han visto propuestas independientes, entre muchas otras, que han conseguido adaptar la IA de Facebook para que funcione en un teléfono móvil o aligerarla hasta el punto de que se pueda hacer personalizaciones simplemente utilizando la potencia de un portátil.

placeholder El CEO de OpenAI, Sam Altam. (EFE)
El CEO de OpenAI, Sam Altam. (EFE)

Error o no, Meta sale ganando

Se ha especulado y mucho con que la filtración no fuese un error sino algo intencionado por parte de Facebook, visto el daño que les ha causado a sus rivales que LLaMa haya llegado a tanta gente. El cofundador de Diverger "viendo cómo se produjo" no termina de apoyar esta tesis, pero reconoce que la compañía "es una de las grandes beneficiadas de este asunto". "Hay que pensar que todo se está desarrollando sobre la base de la tecnología que ellos han creado. Si ven algo que les interesa basta con que lo adapten su sistema, algo que no lleva mucho tiempo. Los otros tienen que hacerlo y desarrollarlo desde cero", apunta.

"No se puede perder de vista que los primeros modelos de lenguaje de referencia lanzados hace varios años eran abiertos, así que la situación no es nueva", explica Asier Gutiérrez-Fandiño, exingeniero de Bilbao que trabajó en el BCN SuperComputing Center, además de ejercer como asesor para el Gobierno en materia de IA y director de LHF Lab. "Ahora lo que estamos viendo es que se está volviendo a una situación de igualdad, ya que hasta ahora el principal agente diferenciador eran los recursos económicos que hacen falta para entrenar una IA de estas características".

El gran beneficiado de todo esto es Facebook: miles de personas están trabajando y mejorando su desarrollo de IA. Puede absorber esas mejores

Más allá de la filtración de LLaMa, Gutiérrez-Fandiño explica otra vía que los modelos de código abierto han explotado para avanzar sin gastarse el dineral que se han gastado Open AI o Google: aprovecharse de sus avances para ahorrar trabajo previo. "A los modelos de lenguaje e inteligencias artificiales se les divide en dos grupos. Por una parte están las que no se pueden utilizar en el mercado, porque todavía sufren alucinaciones o no se comportan como esperas. Por otra, las que han superado un umbral de confiabilidad, como es el caso de los lenguajes de Open AI y ChatGPT, porque ya han demostrado un buen desempeño y han superado los controles", argumenta. "Al haber demostrado que son buenas haciendo ciertas cosas y yo quiero entrenar un sistema para alguna de esos usos, ya no necesito a nadie humano ni hacer prueba y error hasta lograr el punto exacto. Me basta con chupar los datos de la plataforma que ya sé que lo hace bien".

Un ejemplo práctico. Imagínense que quieren crear una IA que sea perfecta resumiendo textos. Como ChatGPT ya es muy bueno haciendo eso, bastaría con coger un buen volumen de documentos e ir pidiéndole que los resuma. Luego bastará con cargar los textos originales y los resúmenes hechos por el chatbot y cargarlos en mi sistema para enseñarle cómo resumir a mi sistema. "De esta manera, tendríamos datos generados sintéticamente con la confianza de que son de calidad, porque Open AI ya ha hecho el trabajo previo y ha alcanzado buen nivel. Tendré que pagar la suscripción, pero es infinitamente más barato que desplegar la infraestructura necesaria y el tiempo que hay que gastar para lograrlo", remata el ingeniero vasco.

placeholder Foto: Reuters.
Foto: Reuters.

La pregunta es inevitable: ¿pueden llegar a competir de tú a tú estas IA abiertas? Gutiérrez-Fandiño tiene claro "que van a ser competitivas". "Otra cosa es que te interese tener siempre tu propia IA y su gobernanza, con lo que significa en términos de recursos y equipo", apunta. Calvo Salanova apunta en una dirección similar y también rebaja la euforia. "Desde el punto de vista del usuario, Microsoft y Google, en sus respectivos ámbitos, son importantes incumbentes con miles de millones de personas usando sus servicios que no son fácil de mover a otra plataforma que no conocen tanto. Son audiencias fidelizadas a Workspace, Office o la plataforma que sea".

Un buen ejemplo para ilustrar esto es lo que ha ocurrido con el nuevo Bing de Microsoft. A pesar del bombo que recibió la integración de la tecnología de OpenAI en ese buscador, las consultas desde ordenadores de escritorio solo han crecido un 5%, a pesar de que Google no había activado ninguna función similar. Teniendo en cuenta que la cuota de mercado mundial de Bing es del 3% a nivel mundial, el crecimiento es raquítico. "Otra cosa muy diferente ocurrirá en comunidades de desarrolladores o sectores más especializados, donde las IA abiertas puede tener mucho recorrido. Una especie de Linux, pero hablando de IA".

Lo que Meta te da, ¿Bruselas te lo quita?

La inteligencia artificial generativa ha entrado en un momento crítico para su futuro y su desarrollo: el de la regulación. En Estados Unidos, Sam Altman compareció esta semana ante el Senado, donde pidió, entre otras cosas, crear una normativa que se base en una agencia mundial, similar a la de la energía atómica; así como un sistema de licencias que eviten que esta tecnología sea desarrollada y explotada por manos equivocadas. Estas peticiones han levantado suspicacias sobre las verdaderas intenciones de OpenAI y cómo podría afectar a las iniciativas de código abierto ese plan para licenciar a los desarrolladores. 

A este lado del Atlántico, la UE también ha hecho avances significativos en este sentido y tiene una norma, en la que lleva trabajando dos años, a punto de salir del horno. Los planes de Bruselas han generado críticas por parte de varios expertos que ven "que es un favor a los grandes" y que ahoga a la comunidad open source al no crear figuras específicas para esta parte de la industria. 

"Hay que tener en cuenta que tiene las mismas multas para los grandes que para un pequeño desarrollador y hablamos de sanciones millonarias", afirma Calvo Salanova.

"Habla de malos usos, pero no los regula; pero es que además responsabiliza no solo al que hace el mal uso sino al que provee la tecnología. Es decir, tienen que existir controles para evitar esas infracciones, pero un sistema así solo desincentiva a los pequeños y pone una barrera que solo beneficia a los que se lo pueden permitir", argumenta. Cree que, en caso de seguir por esta línea, Europa "se va a quedar más atrás" de lo que ya está.

"La estrategia de Meta con la inteligencia artificial ha sido poco clara hasta ahora". Esa puyita fue palabra de Sam Altman, fundador de Open AI y creador de ChatGPT, en una entrevista en la que también mostró su esperanza de que los de Menlo Park espabilasen y optasen por una hoja de ruta "más coherente". La declaración podría interpretarse como el clásico recado que ejecutivos rivales se lanzan a través de los medios de comunicación como quien saca un poco el codo en un balón dividido en un partido calentito.

Google
El redactor recomienda