Es noticia
Incendio en Google: tiene un problema con su IA (y su futuro), y le está costando millones
  1. Tecnología
GEMINI TIENE DEBERES PENDIENTES

Incendio en Google: tiene un problema con su IA (y su futuro), y le está costando millones

Google atraviesa un momento crítico en su giro hacia la IA para competir con OpenAI y Microsoft. A medida que los fallos se amontonan, ya se sienten las pérdidas económicas.

Foto: Imágenes de "soldados alemanes" generadas por la inteligencia artificial de Google, Gemini. (Google)
Imágenes de "soldados alemanes" generadas por la inteligencia artificial de Google, Gemini. (Google)

Las llamas en Google no parecen extinguirse. En las últimas semanas, la compañía de Mountain View se ha convertido en la diana del sector tecnológico y del campo de la inteligencia artificial por una polémica que ha golpeado a los planes de la empresa a lo bestia: su modelo de IA generativa estaba creando imágenes de soldados nazis de raza negra. Eso y un sinfín más de imprecisiones históricas con ínfulas racistas. El incidente es sólo el último síntoma de una enfermedad mayor: a Google le está costando muy caro encontrar su camino en la IA.

Si uno de los grandes temores de los desarrolladores de estas herramientas ha sido casi desde sus orígenes el de amplificar los estereotipos, sea de género o raza, Google ha tropezado en lo más básico y justo a los pocos días de anunciar su LLM multimodal Gemini (antes conocida como Bard). Un ejemplo más de que los más grandes pueden equivocarse en lo más sencillo. O peor, en lo que más ruido hace mediáticamente.

Las consecuencias más directas son una caída de las acciones de Alphabet Inc. del 4,5%, una pérdida de unos 90.000 millones de dólares en bolsa en el momento de la controversia, una petición de despido de su director ejecutivo, Sundar Pichai, y lo que más le duele en realidad a Google: paralizar su revolucionaria herramienta de IA generativa de forma temporal cuando se trate de recrear personas. Ningún extintor ha podido detener la propagación.

Los cimientos de la compañía empezaron a tambalearse hace seis días cuando varios usuarios se percataron de que al introducir prompts en Gemini para crear imágenes de soldados alemanes, la IA generaba fotografías de personas de color luciendo el uniforme de las Wehrmacht, las fuerzas armadas unificadas de la Alemania nazi. “Es bueno retratar la diversidad **en ciertos casos**”, señalaba de forma irónica un usuario de Twitter que publicaba estas imágenes.

Contenido inflamable que peligraba con extenderse. Y vaya si lo hizo, con decenas de usuarios reportando casos similares. Uno de ellos, por ejemplo, era que representaba a personalidades blancas (como los Padres Fundadores de Estados Unidos o senadores estadounidenses de 1800) como nativos americanos. El propio CEO de la empresa, Sundar Pichai, envió un email interno a sus empleados para decirles que lo que acababa de suceder era “inaceptable”. Por supuesto, el correo se acabó filtrando.

La respuesta pública de Google tampoco tardó en llegar. La primera medida de la compañía estadounidense fue disculparse en un comunicado por lo que ellos describen como “inexactitudes en algunas representaciones históricas que son ofensivas”. Señalaban que sus intentos de crear una “amplia gama de resultados en Gemini no dieron en el blanco”. Y no lo hicieron, literalmente.

Foto: Sundar Pichai, CEO de Google. Foto: Google

Su explicación del fiasco es que la aplicación se construyó sobre un modelo de IA llamado Imagen 2 que se programó para asegurarse de no caer en los mismos errores que ya habíamos visto en el pasado con otras inteligencias generativas, como la creación de imágenes violentas, sexualmente explícitas o poco inclusivas. La idea era que si se pide, por ejemplo, una foto de un jugador de fútbol o de un ciclista, las personas que se generen sean de diferentes razas y etnias.

El problema es que el remedio parece haber sido peor que la enfermedad. ¿Qué salió mal? “Dos cosas. En primer lugar, nuestro ajuste para garantizar que Gemini mostrara una variedad de personas no tuvo en cuenta los casos en los que no deberían estar ahí. Y en segundo lugar, con el tiempo, el modelo se volvió mucho más cauteloso de lo que pretendíamos, interpretando por error algunas indicaciones sensibles. Estas dos cosas llevaron al modelo a sobrecompensar en algunos casos y a ser demasiado conservador en otros, dando lugar a imágenes embarazosas y erróneas”, explica la empresa.

El problema de fondo somos los humanos

“El sesgo por sí mismo no es un inconveniente. Somos los humanos quienes tenemos sesgos. Es algo inevitable y en la sociedad compensamos los sesgos de unos con los de otros”, señala a El Confidencial José Luis Calvo, ingeniero, experto en IA y cofundador de la empresa Diverger.ai. “El problema es que el entrenamiento de los modelos de IA se hace con datos y si esos datos históricos esconden sesgos que generan discriminación, el sistema de IA lo perpetúa”, añade.

En este caso en concreto, Google intentó introducir un sesgo intencionado que compense los sesgos ya presentes en los datos. Y le ha salido mal. El experto incide en que los sistemas deberían corregir trabajando los datos de entrada en lugar de hacerlo sobre el resultado del modelo, algo probablemente más costoso por la cantidad ingente de información: “Y no limitar la responsabilidad del usuario. Por ejemplo, si le preguntas por un chiste racista o machista a ChatGPT te va a decir que no puede hacerlo, salvo que le digas que está escribiendo un guión para Torrente, que entonces sí lo hace”.

Otras empresas como OpenAI imponen estas limitaciones, algo que muchos interpretan como una limitación desmesurada de la libertad de expresión. En opinión de Calvo, “la responsabilidad en casos así debe estar en el uso que se le dé, o al menos no debe residir toda en el fabricante del modelo. Lo ideal sería que generara imágenes como tengan que ser (incluso con esos sesgos de los datos) pero que si el usuario dice explícitamente lo que quiere (indicando género, raza o lo que sea) el modelo lo haga, en lugar de que Google fuerce”.

Foto: Foto: Getty/Carl Court.

Cuando el gigante tecnológico comenzó hace unas semanas a ofrecer su función de generación de imágenes por IA a través de Gemini el objetivo era, de hecho, igualar las ofertas de competidores como OpenAI, Microsoft o Meta. Sin embargo, los errores continuados del servicio, como que dudaba en determinar si la figura histórica de mayor impacto negativo ha sido Adolf Hitler o Elon Musk, han preocupado a los inversores. Y a los usuarios.

La realidad es que estas alucinaciones son un desafío conocido en todos los LLM. “En ChatGPT, si a “rey” le sumas “mujer”, el resultado del algoritmo te da “reina”. Si a “médico” le sumas “mujer”, el resultado te da “enfermera”. Y eso es un problema si usas la técnica para buscar personas que mejor se adecuen a un empleo: el algoritmo te va a dar más resultados de hombres”, explica Calvo.

No podemos olvidar que esa lucha de Google y los sesgos viene de lejos. Un caso similar salpicó al Google de 2015, cuando su aplicación “Fotos” estuvo etiquetando por error a una pareja negra como "gorilas". Un 'agujero' que aún persiste de otras formas.

placeholder Presentación del nuevo modelo de inteligencia artificial desarrollado por Google, Gemini.
Presentación del nuevo modelo de inteligencia artificial desarrollado por Google, Gemini.

El problema entonces era cuantitativo. Tan simple como tener más o menos fotos de una raza que de otra. “Pero lo que le pasa hoy a Google con Gemini es que, teniendo en cuenta todos estos desajustes, quieren evitar que cuando pongas “dame una foto de un médico”, no siempre salga un hombre blanco. Y así se han ido, sin quererlo, al extremo, sobre todo cuando entran en juego los eventos históricos controvertidos”, señala el experto. Al final el resultado es más que desafortunado. Le pides una foto de romanos del siglo I y salen romanas, sí, pero con rasgos asiáticos.

El olor a hollín llega a la bolsa

Más allá de disculparse en su blog, la segunda reacción de Google, la más dura, ha sido lamentarse por una pérdida de unos 90.000 millones de dólares en valor de mercado cuando la controversia sobre el producto del gigante de Silicon Valley llegó a Wall Street. Las acciones de Alphabet Inc. cayeron un 4,5% a 138,75 dólares el lunes, cerrando a su precio más bajo desde el 5 de enero y registrando su segunda pérdida diaria más pronunciada del último año.

Algunos analistas como Nick Monroe, de Melius Research, inciden en que los errores recientes de Google en IA le pueden costar muy caro económicamente: “Si Google es visto como una fuente poco confiable de IA para una parte de la población, eso no es bueno para los negocios", señalaba a Forbes.

El incendio en Google le está llevando a una situación compleja, sobre todo cuando hay otras compañías líderes comiéndole terreno en el campo de la IA. Aunque su matriz, Alphabet, aumentó sus ingresos en un 8,7%, hasta 307.394 millones de dólares, en 2023, sus gastos sumaron 223.101 millones de dólares, un 7,3% más. Costes que han ido recortando con miles de despidos recientes y que, aun así, no le han ahorrado la consecuente indemnización de 2.100 millones de dólares.

Foto: Así es el Rabbit R1 que ha causado furor en el CES 2024 (Rabbit)

Las prisas por desarrollar una IA a tiempo que compitiera cara a cara con sus rivales le están pesando en el bolsillo. Pero la apuesta de la compañía por la IA sigue siendo firme. La propia jefa financiera de Alphabet Inc., Ruth Porat, consideraba esos resultados como "sólidos" y subrayaba que seguirá "rediseñando" la base de costes a medida que se invierte en "oportunidades de crecimiento".

La cuestión aquí es que Google es un elefante de oro que está tratando de reinventarse, por un lado, lanzando decenas de nuevos servicios, y por otro, tratando de asegurar los negocios que más rentabilidad le proporcionan ahora mismo y un buscador con visos de quedarse anticuado.

Para recordárnoslo existe esta mítica página web que reúne todos y cada uno de los proyectos de la compañía que prometieron ser y nunca fueron. Hasta 274 ideas que Google mató por una simple razón: falta de innovación. De hecho, una de sus estrategias más comunes durante esta década ha sido hacer las mismas plataformas que ya estaban funcionando para otras marcas y ponerles la etiqueta de “Google”. Y no es algo que siempre haya funcionado.

placeholder Sundar Pichai, director ejecutivo de Google.
Sundar Pichai, director ejecutivo de Google.

Además, mientras experimenta esta delicada y lenta reestructuración, a Google otros conductores ya le están adelantado por la derecha. Hace unos días nos hicimos eco de un pequeño invento que está poniendo en jaque el negocio de los smartphones: los Rabbit R1. Un aparato estilo game boy del tamaño de una peonza que incluye un asistente de inteligencia virtual y que está arrasando en ventas. Un invento que, sin comerlo ni beberlo, ya amenaza con acabar con toda una era tecnológica, la de los móviles, la de las apps y los sistemas de mensajería tradicionales.

¿Qué va a hacer Google cuando una suerte de tamagochi le arañe parte de su base de usuarios, tanto en Android como en búsquedas? La idea de reinventarse es prioritaria, pero la realidad es que hacerlo le está costando cielo y tierra. Y los tropiezos como los nazis negros son sólo la chispa de una gran fogata que amenaza con extenderse.

Las llamas en Google no parecen extinguirse. En las últimas semanas, la compañía de Mountain View se ha convertido en la diana del sector tecnológico y del campo de la inteligencia artificial por una polémica que ha golpeado a los planes de la empresa a lo bestia: su modelo de IA generativa estaba creando imágenes de soldados nazis de raza negra. Eso y un sinfín más de imprecisiones históricas con ínfulas racistas. El incidente es sólo el último síntoma de una enfermedad mayor: a Google le está costando muy caro encontrar su camino en la IA.

Inteligencia Artificial Google Racismo
El redactor recomienda