Otra versión sobre la caída de Nvidia: por qué el impacto de DeepSeek no explica su derrumbe
La empresa de moda fue la principal afectada por la irrupción de la inteligencia artificial china que ha puesto patas arriba la industria tecnológica. Muchos creen que el diagnóstico va en dirección contraria
:format(jpg)/f.elconfidencial.com%2Foriginal%2F848%2F6a0%2Fca4%2F8486a0ca49c5c9e60b88972c74c55a10.jpg)
Imaginen que, al terminar el día de hoy, todas las compañías del Ibex 35, menos el BBVA, pasan de cien a cero y pierden todo su valor en una sola sesión. Esta imagen sirve para entender la magnitud del castigo que sufrió la empresa de moda, Nvidia, el pasado lunes, cuando vio cómo casi 600.000 millones de capitalización se esfumaron en unas pocas horas.
La culpa la tenía DeepSeek R1, una inteligencia artificial puesta en circulación por una empresa china que, salvo en los mentideros especializados, era una auténtica desconocida. Podía haber sido el enésimo ChatGPT que llega al mercado salvo por un detalle: ha conseguido superar las capacidades de o1, uno de los mejores modelos desarrollados por OpenAI, a una fracción de su precio y con una cantidad mucho menor de tarjetas gráficas de Nvidia, que hasta ahora eran percibidas como el ingrediente secreto de esta salsa. Además, para rematar el órdago, era un proyecto open source y estaba disponible a coste cero.
La firma de Jensen Huang fue la más golpeada, pero no la única. El inesperado éxito de DeepSeek se tradujo en una colleja bursátil generalizada a la práctica totalidad de los implicados en la carrera de la IA: desde Microsoft hasta Google, pasando por AMD, Amazon o Meta.
Por castigar, se castigó severamente (casi un 10% de caída) incluso a los holandeses de ASML, los únicos capaces de crear las máquinas necesarias para fabricar semiconductores de vanguardia, como si no hubiese necesidad de dar forma a otros microchips que no fuesen las GPU de Nvidia. Obviamente, al no ser empresas cotizadas, Anthropic u OpenAI se libraron del pánico de los mercados, pero el nerviosismo era palpable con publicaciones de empleados que básicamente venían a decir que usar el nuevo modelo de DeepSeek R1 era sinónimo de regalar sus datos al Partido Comunista Chino.
:format(jpg)/f.elconfidencial.com%2Foriginal%2Fd1f%2F3d7%2F025%2Fd1f3d702596454c8dbda8189cd5d067e.jpg)
El inesperado éxito de esta inteligencia artificial fue interpretado como una enmienda a la totalidad de uno de los mantras que ha guiado a los grandes de Silicon Valley desde el Big Bang de la IA que provocó la irrupción de ChatGPT: cuanto más grande, más inteligente.
Un mantra que les ha llevado a gastar miles de millones de dólares, sin saber cuándo lo recuperarían, para atesorar cientos de miles de GPU y construir infraestructuras que les proporcionasen el músculo técnico necesario para conquistar esta tecnología. El último ejemplo de esta filosofía fue ‘Stargate’, el plan presentado por Trump junto a OpenAI, Oracle y Softbank, que pretendía movilizar 500.000 millones con este fin.
Cuánto más grande, más listo
Las preguntas son evidentes. ¿De qué sirve esa montaña de dólares si los chinos han aprendido a hacer lo mismo por mucho menos? ¿Realmente tiene sentido que Mark Zuckerberg vaya a construir un centro de datos del tamaño de Manhattan si una empresa en Pekín o Shenzhen va a hacer lo mismo con uno del tamaño de un edificio normal y corriente? Y, sobre todo, ¿puede Nvidia seguir vendiendo gráficas como churros a precio de oro y estar en la pelea por ser la compañía más valorada del mundo?
:format(jpg)/f.elconfidencial.com%2Foriginal%2Fb0c%2F605%2Ff49%2Fb0c605f49966c8e618c0270319a1f9ec.jpg)
:format(jpg)/f.elconfidencial.com%2Foriginal%2Fb0c%2F605%2Ff49%2Fb0c605f49966c8e618c0270319a1f9ec.jpg)
Uno de los análisis más repetidos durante el pasado lunes negro es que DeepSeek había reventado la ley no escrita de cuanto más grande, mejor, que eso iba a empezar a desinflar la burbuja que se había formado en torno a esta tecnología en los dos últimos años y que iba a haber un desfile de víctimas ilustres, empezando por Nvidia. The Financial Times se hacía eco de las declaraciones de un inversor en corto que echaba todavía más sal en la herida al decir que días antes de que comenzase el carrusel de resultados trimestrales de las tecnológicas, una empresa china había lanzado el mensaje de que sus modelos propietarios “no tenían valor ninguno”.
Pero muchas otras voces han remarcado que este diagnóstico era precipitado, exagerado e incluso que apuntaba en la dirección opuesta. Obviamente, Jensen Huang salió al paso diciendo que esto le venía bien a su empresa en el sentido de que cuantos más jueguen al juego de la IA, más beneficio iban a obtener. Entre los partidarios de esta tesis, Pat Gelsinger, el hasta hace dos días director ejecutivo de Intel, anunció que había aprovechado la caída de Nvidia para invertir en títulos de la compañía.
“La reacción del mercado es equivocada: reducir el coste de la IA expandirá el mercado”, escribió en LinkedIn. “DeepSeek es una pieza de ingeniería que marcará el comienzo de una mayor adopción”. El paso de las horas parece haberle dado razón a este ejecutivo porque tanto Nvidia como otros valores de los penalizados el lunes comenzaron a subir este martes. En el caso de la empresa especializada en GPUs, el rebote de este martes superó el 10%.
“Nosotros hemos conseguido reducir en cien veces la potencia necesaria para generar una imagen en dos años”, explica a El Confidencial Joaquín Cuenca, CEO de Freepik, probablemente la empresa española más destacada en todo lo que se refiere a la IA. “Sin embargo, ahora gastamos el doble en GPUs”, remata, a la par que comparte la reflexión de Gelsinger de que abaratar el coste amplía el mercado. “Al final, no es lo mismo usarlo para una actividad concreta que generalizar su uso en medicina, matemáticas, física…”.
Entrenamiento versus inferencia
Cuenca pone el acento en el logro de DeepSeek, destacando que no es simplemente un gran modelo de lenguaje de un tamaño considerable, sino que además han añadido una capa de razonamiento, uno de los logros relativamente recientes de OpenAI. “Y lo han hecho supuestamente a poco más de 5 millones de dólares en lugar de los 100 o 150 millones que costaba hasta ahora. Y, además, lo han hecho en código abierto, lo que permite que otros puedan reutilizar ese trabajo”, explica. ¿Esto qué significa? Que muchos de los que no podían afrontar una inversión, ahora pueden hacerlo. “Al coste que suponía, solo 3 o 4 empresas podían; a 5 millones son cientos las empresas que pueden hacerlo”.
En este sentido, cree que los grandes afectados, a corto plazo, son esas empresas que pretendían cubrir parte de los costes de entrenar modelos fundacionales cobrando suscripciones altas, como los 200 euros que cobra OpenAI por acceder a sus funciones premium.
“Lo que ha quedado demostrado es que los modelos fundacionales son el bien que más rápido se ha depreciado en la historia de la humanidad”, ironiza Cuenca, que también aclara que esto no significa que el terreno de juego se haya igualado para todos. “Ahora lo que pueden hacer Google u OpenAI, por mencionar algunas, es hacer un modelo 100 veces más grandes. Si al hacerlo el resultado es que tenemos un modelo más grande y más inteligente, tiene sentido tener esas capacidades de hardware”.
:format(jpg)/f.elconfidencial.com%2Foriginal%2Feab%2F669%2Fde5%2Feab669de563cf89a0a75387780a7916a.jpg)
:format(jpg)/f.elconfidencial.com%2Foriginal%2Feab%2F669%2Fde5%2Feab669de563cf89a0a75387780a7916a.jpg)
El CEO de Freepik matiza que la eficiencia en el consumo de recursos de DeepSeek se ha logrado en la parte de entrenamiento, no en la parte de inferencia, que es, sin entrar en demasiados detalles técnicos, el coste derivado de que los usuarios usen una inteligencia artificial. “Hay gente trabajando, pero el precio de tener a cientos de millones de usuarios usando determinada herramienta sigue siendo muy alto”. También es cierto que la compañía china no es la única que ha conseguido grandes niveles de eficiencia, como indicaba el experto Ramón Medrano Llamas en su cuenta de X, que ponía el ejemplo de las estadísticas logradas por Gemini Thinking en los dos últimos años. Lo rompedor, por tanto, es el precio del proceso para lograrlo.
mucha gente se está centrando en la eficiencia, lo que es cierto, aunque no es tan exagerado como algunos medios dicen.
— Ramón Medrano Llamas (@rmedranollamas) January 29, 2025
no hay más que mirar a Gemini Thinking para ver por dónde vamos en términos de coste y latencia. Gemini ha bajado de coste un 98% desde hace 2 años. pic.twitter.com/L5pShRIlHC
“Hasta ahora el gran beneficiado de la IA había sido Nvidia y lo va a seguir siendo, porque potencia de cálculo se va a seguir necesitando e incluso más”, se reafirma Andrés Torrubia, ingeniero y experto en la materia. “Ojo, que DeepSeek ha necesitado 10.000 GPU, que no es moco de pavo”. Lo que ahora queda por clarificar es el tipo de gráficas que han utilizado realmente. Supuestamente, tal y como afirma la compañía, utilizaron las H800, componentes de Nvidia que en este momento también son objeto de sanción, pero que se pudieron obtener hace meses sin saltarse las restricciones impuestas por Estados Unidos. Sin embargo, en las últimas horas y desde varios puntos, se está especulando con que la empresa china haya utilizado, en realidad, H100, la más popular y demandada por los gigantes que se dedican a entrenar sistemas de inteligencia artificial y que llevan tiempo sin poderse exportar a China por las sanciones de Washington. Esto sería un ejemplo más de cómo las empresas del país asiático están consiguiendo acceder a estos equipos.
Torrubia, también codirector del Instituto de Inteligencia Artificial y fundador de Medbravo (que aplica esta tecnología al desarrollo de fármacos), asegura que siente tristeza porque una iniciativa como DeepSeek no haya surgido en Europa. “Nos solemos quejar de que en Europa tenemos menos máquinas y menos músculo computacional que en Estados Unidos y que tenemos mucho talento, y esto desmonta en parte esa idea”, reflexiona.
:format(jpg)/f.elconfidencial.com%2Foriginal%2F106%2Fe0b%2F408%2F106e0b4080278b50b3cd7939aa539e3d.jpg)
Este experto aclara que lo que se ha producido con DeepSeek no es tan diferente a lo que ha ocurrido en otras ocasiones en la industria de la tecnología, que es “hacer más barato lo que ya se hacía”. “Era algo inevitable”, remata haciendo referencia a lo que ocurrió con internet y las redes de comunicación o con la irrupción de Google y Linux en el mundo de los servicios. “Antes todo eran servidores de Sun u Oracle, todo muchísimo más caro. Hacer lo nuevo es siempre muy caro, replicarlo es más barato”.
Torrubia pone de ejemplo incluso el ‘Proyecto Manhattan’ con el que Estados Unidos desarrolló la primera bomba atómica. “Les costó 2.000 millones de dólares de 1945. Las que llegaron después, que no dejan de replicar y optimizar la fabricación, fueron una fracción del coste”, explica. “En ese caso, ser el primero a EEUU le salió a cuenta, por así decirlo, porque le sirvió para terminar con la guerra”.
Pero con la inteligencia artificial esto ha cambiado. “No gana el primero que la tiene y con esto ha vuelto a quedar demostrado. Gana el que sepa sacarle provecho, no el que la hace”, añade Torrubia. En resumen, que los grandes ganadores de la irrupción de DeepSeek son los que en el mundillo se conoce como “empresas de capa de aplicación”, que no es otra cosa que compañías que no se dedican a entrenar modelos fundacionales, sino a utilizar lo que crean otros para desarrollar aplicaciones y productos sobre esos desarrollos. “Eso va a ser clave para llevar a la sociedad ese aumento de productividad que se lleva tiempo prometiendo”.
Imaginen que, al terminar el día de hoy, todas las compañías del Ibex 35, menos el BBVA, pasan de cien a cero y pierden todo su valor en una sola sesión. Esta imagen sirve para entender la magnitud del castigo que sufrió la empresa de moda, Nvidia, el pasado lunes, cuando vio cómo casi 600.000 millones de capitalización se esfumaron en unas pocas horas.