El truco de Nvidia que nadie esperaba es un miniPC que pondrá más difícil frenar su reinado
Se llama Proyecto Digits y permitirá a estudiantes, investigadores e ingenieros de IA hacer cosas que antes solo estaban al alcance de grandes compañías. Y todo a un precio menor
Si hace diez años alguien le hubiese dicho a Jensen Huang, CEO de Nvidia, que su empresa iba a ser capaz de llenar un estadio entero para presentar sus novedades en el Consumer Electronics Show (CES) o que la acción de la compañía que dirige, en vez de cotizar a los 0,50 dólares que valía en enero de 2015, iba a pelear por la cota de los 150 dólares, probablemente el directivo no le hubiese creído. Y eso que, según dicen quienes le conocen, tiene cierto olfato para aventurar con bastante antelación por dónde van a ir los tiros en la industria.
En Las Vegas, la compañía se ha dado un baño de masas espectacular y ha recordado lo que todo el mundo sabe: sus inventos son imprescindibles para la próxima gran revolución tecnológica y, sin ellos, no hay inteligencia artificial generativa que valga. Una situación que la llegó a convertir en la compañía más valiosa del mundo, por encima de Microsoft y Apple. Ahora es el fabricante del iPhone quien ha recuperado el trono, pero es más que probable que el baile en la parte alta de la tabla siga siendo intenso en 2025.
Que eso ocurra dependerá en gran parte de Blackwell. Si no sabe lo que es, apunte el nombre, porque va a oír hablar mucho de ello a lo largo de este año. Se trata de la nueva arquitectura que la multinacional va a utilizar para diseñar sus tarjetas gráficas. Reemplazará a la arquitectura Hopper, la que se ha utilizado para crear los chips H100, que son los que han dado vida y han entrenado a la práctica totalidad de redes neuronales y modelos de lenguaje actuales, como ChatGPT, Gemini o Claude.
La empresa cuenta con casi un 90% de cuota de mercado en lo que se refiere a chips para IA. Son tan cotizados que, desde hace meses, fondos inmobiliarios y fondos buitre incluso los aceptan como activos para respaldar préstamos e inversiones. Pues bien, Nvidia confirmó que la producción en masa de las Blackwell para IA y servidores ya está a pleno rendimiento, gracias a una engrasada maquinaria que depende de 45 fábricas en todo el mundo.
La era Blackwell ya es realidad
¿Por qué son tan importantes? Porque estos componentes aumentan significativamente el rendimiento computacional frente a sus predecesores y prometen ser una ayuda imprescindible para romper ese techo que muchas de las inteligencias artificiales se han encontrado para seguir aumentando y mejorando sus capacidades. Huang confía tanto en esta tecnología que dice que es el lanzamiento más importante de los últimos 25 años de la empresa.
El CEO de Nvidia desveló muchas cosas encima del escenario. Se vieron las primeras GPU dedicadas al gran consumo basadas en Blackwell, así como varios software orientados a facilitar la creación de agentes de IA (esos que prometen tomar el control de nuestros equipos por nosotros, entre muchas otras cosas) o para llevar esta tecnología al mundo físico e impulsar una nueva generación de robots humanoides. También pretende hacer realidad a gran escala la conducción autónoma, más allá de experiencias reducidas a una ciudad o un barrio. Por cierto, en este sentido, ha firmado un acuerdo con Toyota.
Sin embargo, lo más sorprendente de Nvidia fue otra cosa: su primera computadora. Un miniordenador minúsculo que nadie esperaba y que puede acabar apuntalando todavía más su dominio en el mercado de la IA. ¿Cómo? Haciéndose imprescindible también para pequeñas empresas y científicos de todo el mundo. Este nuevo equipo, llamado Proyecto Digits, es una máquina que tiene una potencia bruta 200.000 veces superior a la de un portátil de alta gama. Su diseño aún no está terminado, pero Huang ya ha dejado claro que será como un Mac Mini, lo suficientemente compacto para no ocupar mucho sitio en tu escritorio y para que lo puedas meter en el bolso o en la mochila.
Mucho músculo a precio reducido
Está dirigido a estudiantes, desarrolladores, científicos de datos o investigadores que trabajan en el campo de la IA. La potencia que ofrece este equipo, que llegará al mercado en mayo si nada se tuerce y funcionará con un sistema operativo basado en Linux, permite incluso la ejecución local de desarrollos que antes habrían requerido conectarse a la nube y a centros de datos masivos. Soporta modelos de hasta 200.000 millones de parámetros, una cifra superior incluso a la que tenía GPT-3, el modelo de lenguaje de OpenAI lanzado en 2020, que contaba con 175.000 millones.
Uno podría pensar que este equipo va a costar lo mismo que la entrada de un piso en Madrid, pero nada de eso. Su precio partirá de 3.000 dólares, una cantidad muchísimo menor que la que una startup pequeña o un investigador tendría que haber invertido para tener un centro de datos que le brindase esa capacidad. Como son presupuestos que no se pueden permitir, Digits resulta especialmente atractivo.
José Luis Calvo, ingeniero especialista en IA y fundador de Diverger, señala el precio como el gran atractivo, ya que impacta directamente en el coste para entrenar modelos. También en el tiempo, al hacerlo en local y no depender de cargar las cosas en la nube. “Cuanto más se acorta y se abarata el ciclo de prueba-error, mejor”, comenta este experto a este periódico. Pero Calvo pone el acento en otro punto: el de los agentes inteligentes, donde toda la industria está poniendo mucho interés. “Te habilita tener un agente en local, en tu ordenador. Algo inviable hasta ahora en un portátil”, apunta.
Cree que, en un primer término, serán agentes que hagan trabajos de machine learning o agentes para desarrollo de código. Pero, a medio plazo, cree que será posible que esos investigadores o estudiantes tengan sus propios agentes que puedan automatizar tareas, al estilo de los que han presentado Anthropic, Microsoft o Google. “Ejecutar en local supone una mejora económica, pero también de privacidad”, concluye Calvo.
Siguiendo la vía de Calvo, hay muchos que, en las últimas horas, han comparado el movimiento de Nvidia con los principios de la informática personal y doméstica. Estos equipos carísimos solo estaban al alcance de las empresas de cierto tamaño hasta que aparecieron dispositivos más básicos, pero mucho más asequibles, y permitieron que muchísima más gente entrase en contacto con esta tecnología. Con Digits, salvando las distancias, pasa algo parecido: pone en manos de actores pequeños una capacidad de cálculo que solo podían ofrecer las grandes tecnológicas.
Nvidia corta un posible peligro
Para entender por qué Nvidia se ha vuelto tan importante en el mundo de la inteligencia artificial, hay que remontarse atrás en el tiempo. Su principal producto, las tarjetas gráficas, era un mercado de nicho, aparatos que principalmente interesaban en el mundo de los videojuegos y otras áreas, como la edición gráfica o de vídeo, que necesitaban ejecutar muchos procesos en paralelo. Esta es la principal ventaja de las GPU frente a las CPU. Mientras estas últimas trabajan operaciones complejas de forma secuencial, las primeras hacen muchas tareas más pequeñas pero al mismo tiempo. Nvidia se centró en mejorar estos productos, mientras que otros, como Intel, básicamente se dedicaron a cubrir el expediente de cara a portátiles y equipos de gran consumo.
El primer premio para Nvidia llegó de la mano de Tesla al principio de la pasada década, que empezó a utilizar estos chips para sus sistemas de asistencia a la conducción y conducción autónoma. Estos coches necesitan procesar muchas señales al mismo tiempo de cámaras y sensores, por lo que una gráfica era perfecta para ello. El segundo premio llegó de la mano de los transformers, una creación de ingenieros de Google que ha sido clave para el big bang de la IA generativa. Es más, la T de ChatGPT se debe a este desarrollo. Los padres de la idea diseñaron el proceso para que corriese en tarjetas gráficas.
Esto ha dado a la empresa de Huang una gran ventaja y ha hecho que todos los grandes actores del gremio trabajen con su tecnología y basen sus productos en su tipo de hardware. Pero no todo el mundo se podía permitir una tarjeta de Nvidia y se buscaban alternativas. Ahí radica un posible peligro a futuro para la supremacía de la empresa americana, según explica Asier Gutiérrez-Fandiño, exingeniero de IA en el Barcelona Supercomputing Center y director de LHF Labs. “Muchos desarrolladores de IA habían comenzado a escoger a Apple para poder hacer pruebas de manera muy ágil”, detalla este experto, que pone el acento en los procesadores propios que la compañía lanzó en 2020 para los Mac y que supusieron cortar una relación de más de 20 años con Intel.
Los chips de la serie M de Apple, que unifican CPU y GPU, “ofrecen cantidades de memoria muy grandes” en comparación con los de Nvidia dirigidos al mercado de consumo, que son los que estos profesionales se pueden permitir. Los procesadores de la manzana ofrecen hasta 128 GB en este parámetro, indica Gutiérrez-Fandiño, mientras que la gráfica de Nvidia con más memoria ofrece 32 GB. “El tamaño de la memoria es crucial para ejecutar modelos más grandes, esto es, de mayor número de parámetros, que, por norma general, son más inteligentes”, agrega este ingeniero.
Si la empresa no llega a mover ficha (Digits ofrecerá hasta 128 GB de memoria), podría encontrarse con un cambio de paradigma: el de perder “la superioridad de la compatibilidad de los modelos de IA”. “Las principales librerías de IA y los modelos fueron y son primero compatibles con Nvidia y han ido posteriormente evolucionando para ser compatibles parcialmente con MPS (Apple) y ROCm (AMD). A día de hoy, esa compatibilidad no es completa y es una de las barreras que protege el negocio de Nvidia y lo hace tan imprescindible”, añade este experto, que señala que, si Apple quiere seguir manteniendo el favor de los desarrolladores más pequeños y ser competitiva en este terreno, le toca mover ficha. “Si quiere promover sus productos con IA y estar en la vanguardia de estos avances, será necesario”.
Esta batalla, explica Gutiérrez-Fandiño, también se está dando en los centros de datos. “Se está dando en un formato más dispar, en plan David contra Goliat”, apunta. El que está intentando derribar al cíclope en esta ocasión es una empresa emergente llamada Cerebras, que está creando chips de IA utilizando un enfoque similar al que utilizó Apple con sus procesadores. La empresa unifica toda la memoria y el chip de muchas GPU en un solo dispositivo. Eso permite no tener que partir el modelo y distribuirlo en diferentes gráficas en red para entrenarlo y luego volver a unirlo, un proceso que, por cierto, Nvidia tiene mucho más trabajado que sus rivales. La ventaja sería un entrenamiento más rápido y barato. “Se podría decir que un solo ordenador de Cerebras es el equivalente a miles de GPU de Nvidia”, remata.
Si hace diez años alguien le hubiese dicho a Jensen Huang, CEO de Nvidia, que su empresa iba a ser capaz de llenar un estadio entero para presentar sus novedades en el Consumer Electronics Show (CES) o que la acción de la compañía que dirige, en vez de cotizar a los 0,50 dólares que valía en enero de 2015, iba a pelear por la cota de los 150 dólares, probablemente el directivo no le hubiese creído. Y eso que, según dicen quienes le conocen, tiene cierto olfato para aventurar con bastante antelación por dónde van a ir los tiros en la industria.
- Se han hecho muchas cosas inútiles con las pantallas plegables. Esta es otra cosa Michael Mcloughlin. Las Vegas
- ¿El médico te ha prohibido la sal? Esta cuchara representa la esperanza de millones de hipertensos Michael Mcloughlin. Las Vegas
- Acaba de arrancar 2025 y ya tenemos el aparato más alucinante del año. Lo vas a querer en casa Michael Mcloughlin. Las Vegas