Es noticia
Este es el nuevo superchip que promete dar un vuelco a la inteligencia artificial
  1. Tecnología
Más pequeño que una tarjeta de crédito

Este es el nuevo superchip que promete dar un vuelco a la inteligencia artificial

Se llama MI300X y es la respuesta de AMD para frenar a Nvidia en el terreno de la IA generativa. Nvidia domina más del 80% de este mercado, pero AMD asegura que eso va a cambiar

Foto: La CEO de AMD, Lisa Su, en una presentación a comienzos de año. (Getty/David Becker)
La CEO de AMD, Lisa Su, en una presentación a comienzos de año. (Getty/David Becker)
Las claves
placeholder Google vs. Microsoft: guerra abierta por la inteligencia artificial que va a cambiar tu vida

el ascenso meteórico de OpenAI (y Sam Altman)

Google vs. Microsoft: guerra abierta por la inteligencia artificial que va a cambiar tu vida
Manuel Ángel Méndez Gráficos: Miguel Ángel Gavilanes

La compañía estadounidense AMD acaba de dar un golpe sobre la mesa de la inteligencia artificial (IA) con la presentación de un nuevo procesador diseñado para entrenar y operar sistemas como ChatGPT o Bard, el asistente de Google. La empresa asegura haber dado con el "chip más avanzado del mundo", más potente, rápido y eficiente en varios frentes respecto al equivalente de su eterno rival, Nvidia. Lo ha hecho en un evento en San Francisco al que ha convocado a toda la prensa mundial, una prueba de lo que está en juego con el boom de la IA generativa. Google, Open AI y Microsoft llevan meses peleando por dominar este sector, pero la verdadera batalla se libra por dentro, en las tripas de esta tecnología.

Ni ChatGPT ni Bard existirían hoy si no fuera por los servidores que procesan millones de datos en milisegundos. Estos servidores usan chips avanzados, llamados unidades de procesamiento gráfico, o GPU, capaces de rastrear información y generar texto, imágenes, audio y vídeos. La estadounidense Nvidia se ha convertido en apenas un año en el gorila del sector y domina más del 80% del mercado de las GPU que usan Google, Microsoft o Facebook para sus IA generativas. El hype de la IA es tan bestial que el valor de Nvidia casi se ha triplicado en los últimos seis meses. "Este año será gigantesco", aseguró su CEO, Jensen Huang, hace unas semanas en Taiwán.

Foto: Timnit Gebru. (Getty/TechCrunch/Kimberly White)

Tal vez por eso todas las miradas estaban ahora puestas en su eterno rival, AMD, y, en menor medida, en Intel. El futuro de la IA, más que de las puñaladas entre OpenAI, Google o Microsoft, depende ahora en gran medida de la guerra entre estas tres compañías.

Hasta ahora, la parte más importante dentro de los servidores y los centros de datos había sido la unidad central de procesamiento, o CPU. Intel y AMD habían dominado el diseño de estos procesadores, pero el boom de la IA generativa ha cambiado el juego. Aplicaciones de IA como ChatGPT o Midjourney necesitan mucho más poder de procesamiento, memoria, y más rapidez, algo que las actuales CPU no pueden ofrecer. Una cosa es procesar datos y otra rastrear millones de textos, audios, imágenes y vídeos y crear nueva información, distinta cada vez que se hace una petición. Los procesadores GPU son capaces de servir este tipo de tareas de forma mucho más rápida y barata. En otras palabras, se han convertido en la clave fundamental para crear la IA generativa del futuro.

placeholder Lisa Su, CEO de AMD, mostrando el nuevo chip MI300X, en un evento en San Francisco. (Reuters)
Lisa Su, CEO de AMD, mostrando el nuevo chip MI300X, en un evento en San Francisco. (Reuters)

Nvidia es, de momento, la mejor posicionada en este terreno. Su nuevo procesador H100 GPU, es uno de los más potentes del mundo para tareas de IA generativa. El problema es que también es de los más caros. Es justo aquí donde AMD espera morder a su rival.

"La IA generativa y los grandes modelos de lenguaje lo han cambiado todo. La necesidad de más y más capacidad de procesamiento está creciendo de forma exponencial", ha asegurado Lisa Su, CEO de AMD, justo antes de presentar el nuevo chip de la compañía con el que esperan hacerle sombra a Nvidia. Se llama MI300X y es una única GPU (a diferencia del MI300A, que combina CPU+GPU, presentado a comienzos de año en la feria CES de Las Vegas), y sus cifras técnicas han impresionado a especialistas y analistas.

"Hemos diseñado este producto solo pensando en la IA generativa", dijo Su. El procesador cuenta con 192 GB de memoria (frente a los 120 GB del H100 de Nvidia), capacidad para almacenar 5,2 terabytes de datos por segundo y transferir 896 GB de información por segundo. En total, acumula 153.000 millones de transistores en un pedazo de silicio más pequeño que una tarjeta de crédito. Lisa lo comparó con el equivalente de su gran rival, el H100 de Nvidia. "Ofrece 2,4 veces más memoria y 1,6 veces más ancho de almacenaje. Eso nos permite una ventaja, que es ejecutar un gran modelo de lenguaje [LLM] directamente en la memoria del chip".

placeholder El nuevo chip de IA de AMD, el MI300X. (Foto cedida)
El nuevo chip de IA de AMD, el MI300X. (Foto cedida)

Para explicar su funcionamiento, Su demostró cómo es posible ejecutar un LLM en uno de estos chips. "Vamos a pedirle que nos escriba un poema sobre San Francisco". El modelo de lenguaje empleado, llamado Falcon-40B (cuenta con 40.000 millones de parámetros), es uno de los más grandes y complejos desarrollado en software abierto. En apenas unos segundos, elaboró un poema de varias líneas, igual que hubiera hecho ChatGPT o el chatbot de Google. "MI300X puede soportar hasta 80.000 millones de parámetros", dijo Su.

Es un número impresionante, pero puede que no sea suficiente. El modelo detrás de ChatGPT contiene más de 175.000 millones de parámetros, y ChatGPT4 todavía más. LLaMA, desarrollado por Meta (Facebook), usa más de 60.000 millones, así que AMD se asegura al menos poner el pie en buena parte del sector de la IA generativa. Su otra ventaja es que estos chips prometen ser mucho más baratos que los de Nvidia, aunque la compañía aún no ha ofrecido detalles de los precios. Estará disponible durante el tercer trimestre de este año, en un movimiento que hará daño a Intel, que no tendrá una tecnología similar hasta 2024.

Igual que hacen sus rivales, AMD agrupará varios de estos chips en una sola plataforma para que la puedan usar desde las grandes tecnológicas (Google, Meta, Amazon...) hasta los superordenadores de centros de investigación. De hecho, algunos de los superordenadores más potentes del mundo ya emplean chips de AMD para tareas de IA, como el del Laboratorio Nacional Lawrence Livermore, en EEUU, especializado en investigación energética, o el superordenador LUMI, en Finlandia, el más rápido en Europa y empleado, entre otras tareas, para la investigación contra el cáncer.

placeholder El CEO de Nvidia, Jensen Huang. (Reuters)
El CEO de Nvidia, Jensen Huang. (Reuters)

AMD se anotó otro tanto en su batalla contra Nvidia con el lanzamiento de una plataforma de software para funcionar junto con su nuevo chip. Una de las razones por las que muchas compañías están firmando contratos con Nvidia es porque su software, llamado Cuda, permite personalizar los procesadores para cada tarea de forma muy rápida y sencilla. Para contrarrestar esto, AMD anunció la plataforma ROCm, con la que espera atraer a muchos desarrolladores de aplicaciones de IA.

A esto ayudará también su alianza con Hugging Face, una startup con sede en Nueva York y valorada en más de 2.000 millones de dólares que tiene la mayor librería de grandes modelos de lenguaje en código abierto. De esta forma, AMD logrará que sus procesadores sean compatibles desde el inicio con los modelos de lenguaje que van a estar detrás de las próximas aplicaciones de IA generativa.

Los inversores han recibido con cierto escepticismo las novedades presentadas por AMD en su batalla contra Nvidia. Poco después de los anuncios, las acciones de la compañía llegaron a caer más de un 4% en Wall Street. "Amo este chip", zanjó Lisa Su durante la presentación. Ahora solo falta que las grandes firmas de IA piensen lo mismo.

La compañía estadounidense AMD acaba de dar un golpe sobre la mesa de la inteligencia artificial (IA) con la presentación de un nuevo procesador diseñado para entrenar y operar sistemas como ChatGPT o Bard, el asistente de Google. La empresa asegura haber dado con el "chip más avanzado del mundo", más potente, rápido y eficiente en varios frentes respecto al equivalente de su eterno rival, Nvidia. Lo ha hecho en un evento en San Francisco al que ha convocado a toda la prensa mundial, una prueba de lo que está en juego con el boom de la IA generativa. Google, Open AI y Microsoft llevan meses peleando por dominar este sector, pero la verdadera batalla se libra por dentro, en las tripas de esta tecnología.

Procesadores
El redactor recomienda