Es noticia
No es solo DeepSeek: este es el arsenal de IA chinas que van a poner en un aprieto a EEUU
  1. Tecnología
EL AZOTE DEL DRAGÓN CHINO

No es solo DeepSeek: este es el arsenal de IA chinas que van a poner en un aprieto a EEUU

Alibaba, Tencent, Bytedance, Baidu, Moonshot… las tecnológicas más punteras de China llevan meses lanzando modelos de IA avanzados que rivalizan o directamente superan a los estadounidenses. ¿Cómo lo están consiguiendo?

Foto: Varios asistentes de la Conferencia Mundial de Inteligencia Artificial pasean por el 'stand' de Alibaba. (Reuters)
Varios asistentes de la Conferencia Mundial de Inteligencia Artificial pasean por el 'stand' de Alibaba. (Reuters)
EC EXCLUSIVO Artículo solo para suscriptores

La última semana ha sido un terremoto en la industria tecnológica. De la nada, una empresa china desconocida para muchos, DeepSeek, irrumpió con un modelo de inteligencia artificial que no solo rivaliza con los de OpenAI, hasta ahora la joya de la corona del sector, sino que además es radicalmente más eficiente: 30 veces más barato de ejecutar y que no depende de gigantescas granjas de centros de datos. Su aparición desató el pánico en los mercados, con caídas millonarias en las Bolsas, pues se había puesto en entredicho la narrativa dominante hasta ahora: más hardware y más potencia, mejor IA. Se asumía que la innovación dependía de modelos colosales que devoraban chips, electricidad y presupuestos astronómicos. Pero estábamos equivocados y DeepSeek ha reventado esa creencia en unos pocos días.

Su modelo de IA DeepSeek R1 compite cara a cara con los más avanzados del mercado estadounidense como o1, de OpenAI, o Claude 3.5 Sonnet, de Anthropic, superándolos en tareas de razonamiento complejo, especialmente en matemáticas y programación, pero con un coste operativo menor y la capacidad de ejecutarse localmente en sistemas muy modestos. Además, sus modelos son de código abierto, licenciados bajo MIT, permitiendo que cualquiera los use, adapte y comercialice sin pagar un céntimo. En contraste, OpenAI ha quedado como un búnker cerrado y caro.

Aunque ahora nos hayamos dado cuenta, la realidad es que DeepSeek no está sola. Alibaba, Tencent, Bytedance, Baidu, Moonshot… las empresas tecnológicas más punteras chinas llevan meses lanzando modelos de IA avanzados que rivalizan o directamente superan a los estadounidenses. El objetivo no es otro que convertirse en el líder mundial en el campo de la IA y superar a Estados Unidos en la batalla por la supremacía tecnológica.

Para ello está invirtiendo miles de millones en IA. La semana pasada, China creó un fondo de inversión de 8.200 millones de dólares que, aunque palidecen en comparación a los 500.000 millones que anunció Trump en el marco del nuevo proyecto Stargate, está aupando a sus empresas a innovar de una manera increíblemente rápida. Las empresas chinas se han centrado en ofrecer programas de talento y subsidios, abriendo academias de IA e introduciendo la educación en esta materia en los planes de estudio de las escuelas primarias y secundarias. El país entero se está volcando en conseguir ese objetivo.

"El mundo se ha dado cuenta de que China ha alcanzado —y en algunas áreas ha superado— a EEUU en tecnología e innovación, a pesar de los esfuerzos por evitarlo", decía el inversor y emprendedor Arnaud Bertrand. Cuando habla de los esfuerzos por evitarlo, se refiere a las restricciones de exportación impuestas por EEUU. La administración de Joe Biden temía que la IA del régimen comunista les aventajara, por eso limitó la cantidad de chips avanzados que llegaban al país asiático. Sin embargo, lo que estaban haciendo sin saberlo, era estimular la innovación de sus adversarios que, con menos recursos, se han centrado en renovar la estructura de sus modelos para hacerlos más eficientes. Digamos que todos esos controles obligaron a los investigadores chinos a ser más "creativos" con un abanico de herramientas mucho más reducido.

El pasado miércoles, mientras la mayoría de ciudadanos chinos celebraban en las calles y brindaban por el primer día del Año Nuevo Lunar, otra empresa, Alibaba, lanzaba un modelo de IA que supera a DeepSeek V-3, la versión anterior a R1, que ya se había ventilado a ChatGPT-4 hace unos meses. La recién nacida se llama Gwen 2.5 y, aunque solo tiene unos días, ha conseguido impresionantes resultados en diferentes tests de rendimiento, superando a Claude 3.5 Sonnet, de Anthropic, o a Llama-3.1, de Meta, sin despeinarse.

El gigante del comercio electrónico tiene entre su catálogo un chatbot conversacional llamado Qwen, impulsado por múltiples modelos de IA, incluidos algunos diseñados para tareas de razonamiento y codificación complejas, que es capaz de analizar archivos, videos e imágenes y hasta controlar tu ordenador, como hace Operator, de OpenAI. En varias pruebas realizadas por este diario, sorprende su capacidad de creación de gráficos y tablas.

placeholder Prueba en Qwen 2.5Max en la que se le pregunta por un gráfico de las empresas más contaminantes.
Prueba en Qwen 2.5Max en la que se le pregunta por un gráfico de las empresas más contaminantes.

Al igual que DeepSeek, sorprende su nivel de razonamiento. En otra prueba realizada, preguntamos a varios modelos de IA la cuestión de "¿cuántas hormigas se necesitan para levantar a un elefante?". El resultado es muy variado. Por un lado, GPT-4o nos indica 20 millones, y en su razonamiento incide en que "una hormiga puede levantar aproximadamente 50 veces su peso corporal y que una hormiga media de 5 mg podría cargar unos 250 mg". Por otro lado, Gemini Flash 1.5, nos indica que 40 millones, y en su razonamiento hace referencia a otros factores como que levantar es diferente de cargar: "Las hormigas podrían levantar un elefante, pero sólo un poco". DeepSeek pone el foco en la "integridad estructural", que el cuerpo de un elefante no soportaría ser levantado por hormigas sin sufrir daños, y apuesta por 120 millones. Y Qwen 2.5Max nos da una cifra aproximada de 25 millones de hormigas para poder levantar a un elefante de 5 toneladas, analizando "qué condiciones se necesitan para que las hormigas trabajen en perfecta sintonía". En comparación, nos da más información relevante y contexto que el resto.

Al ser preguntados por un problema recurrente en el mundo de las matemáticas como este: "Una raqueta y una pelota cuestan 1,10 euros en total. La raqueta cuesta 1,00 más que la pelota. ¿Cuánto cuesta la pelota?, todos aciertan, mientras que GPT-4 estuvo meses fallando.

La cosa no acaba aquí, porque tanto el anuncio de DeepSeek R1 y el de Gwen 2.5Max en realidad llegaban pocos días después de que ByteDance, el propietario de TikTok, lanzara Doubao 1.5 Pro, la última versión de uno de los chatbots más populares en China, con 60 millones de usuarios activos mensuales. Una actualización de su modelo de IA que también es capaz de "razonar" y competir con o1, de OpenAI. De hecho, algunos expertos señalaba que supera a su competidor en el benchmark AIME, en el que se mide la respuesta de estos modelos a instrucciones complejas. Además, requiere menores costes de hardware en comparación con otros modelos porque Doubao utiliza una arquitectura que equilibra el rendimiento con demandas computacionales reducidas. Para 2025, ByteDance ha dicho que planea gastarse la friolera de 12.300 millones de dólares en infraestructura para el desarrollo de sus modelos de IA, según fuentes internas, la mayoría dedicados a adquirir chips y centros de datos.

Foto: Liang Wenfeng (d), CEO de DeepSeek, en una conferencia en Pekín. (CCTV Plus)

Y Tencent, otro de los dinosaurios chinos y famosa en la industria de los videojuegos, ha lanzado Hunyuan-Large, un modelo de lenguaje de código abierto que también compite directamente con gigantes como Llama 3.1 de Meta. Cuenta con 389.000 millones de parámetros, aunque solo activa 52.000 millones en cada operación, reduciendo así el consumo de recursos sin sacrificar precisión. Eso lo consigue con una arquitectura MoE (Combinación de expertos o Mixture of Experts, en inglés), que también emplea DeepSeek R1. Se trata de un sistema que implica la colaboración de múltiples modelos locales que se activan sólo cuando sea necesario para realizar una tarea determinada. Esta activación selectiva reduce significativamente los costes computacionales y mejora la eficiencia. Imagínate a un equipo de expertos, cada uno especializado en un área distinta. Cuando hay que enfrentarse a una tarea, solo se convoca a los expertos relevantes, lo que garantiza un uso eficiente de los recursos y de la experiencia. Al aprovechar todas estas herramientas, también se reduce significativamente el coste.

A Tencent, al igual que Liang Wenfeng, el fundador de DeepSeek, de momento no les importan las guerras de precios o monetizar sus productos, sino dar pasos hacia la AGI (inteligencia artificial general), una herramienta que pueda igualar o incluso superar a los humanos en diferentes tareas. A esta retahíla de empresas se le suma Baidu, el motor de búsqueda dominante de China que creó el primer modelo conversacional dirigido al público en país: Ernie. También Moonshot AI, una startup de Pekín que en cuestión de meses ha alcanzado una valoración de 3.000 millones al lanzar Kimi k1.5, otro modelo que iguala o supera a o1 de OpenAI en la resolución de problemas complejos.

Foto: (Reuters)

"Creemos que el sector de IA de China está avanzando a un ritmo comparable al de Estados Unidos", decía Jo Huang, director de capital privado en Raffles Family Office. Y la mayoría de estos modelos trabajan en código abierto. Esto significa que comunidades de desarrolladores de cualquier sitio pueden acceder, modificar e implementar libremente los modelos de DeepSeek, lo que a su vez reduce las barreras financieras de entrada. "Quienes ven el rendimiento de DeepSeek y piensan: "China está superando a EEUU en IA", lo están leyendo mal. La interpretación correcta es: "Los modelos de código abierto están superando a los propietarios". DeepSeek ha aprovechado la investigación abierta y los recursos de código abierto (por ejemplo, PyTorch y Llama de Meta). Han desarrollado nuevas ideas y las han construido sobre el trabajo de otros. Debido a que su modelo está publicado y es de código abierto, todos pueden beneficiarse de él", explicaba Yann LeCun, jefe de IA de Meta hace unos días.

Sin embargo, China se enfrenta a otros obstáculos importantes, como la regulación del régimen comunista para que se garanticen respuestas que "incorporen valores socialistas fundamentales". Muchos de los modelos de IA chinos se niegan a responder a temas que tienen que ver con la autonomía de Taiwán o con cuestiones políticas que afecten a Xi Jinping o a Tianmen. Y eso es un gran lastre en el avance de la carrera de la IA.

¿De dónde sale el material necesario?

La entrada en juego de DeepSeek R1, su generador de imágenes o la IA que Alibaba enchufó horas después también ha vuelto a poner el foco en un asunto que lleva dando que hablar mucho: con qué equipos están entrando estos sistemas y cómo los están consiguiendo. No hay que olvidar que desde el primer mandato de Donald Trump, Washington ha ido tejiendo un cordón sanitario encadenando sanciones cada vez más amplias y duras con un único fin: evitar que China accediese a chips de vanguardia que les permitieran avanzar en campos como el de la inteligencia artificial y aplicarlo al desarrollo de armas.

Sin embargo, esta red de seguridad se ha mostrado ineficiente en muchas ocasiones. En el pasado, compañías como Huawei han sacado los colores a EEUU presentando móviles con procesadores mucho más avanzados que los equipos, a los que supuestamente tienen acceso, permitían fabricar. Una investigación posterior descubrió que la hipótesis más factible era que hubiesen conseguido utilizar máquinas de fabricación más antiguas para lograrlo, aunque vulnerando supuestamente propiedad intelectual y procesos de TSMC.

El quilombo que ha montado DeepSeek ha vuelto a traer este asunto a colación. Según el paper que explica las bondades del modelo tiraron de tarjetas gráficas de Nvidia, concretamente de la familia H800. Actualmente, este modelo también se encuentra en la lista de componentes que no se pueden vender ni enviar a empresas chinas, pero esta restricción no entró en vigor hasta la segunda mitad de 2023, por lo que es bastante probable que ya las tuviesen en su poder para ese momento. A partir de ahí, en resumen, consistiría hacer cambios en el entrenamiento del modelo para que consuma menos recursos y pueda sacar adelante con un hardware menos capaz.

placeholder La pugna por la IA de dos superpotencias. (Reuters/Dado Ruvic)
La pugna por la IA de dos superpotencias. (Reuters/Dado Ruvic)

Una de las técnicas a las que se suele recurrir, es la del entrenamiento distribuido, es decir fraccionarlo entre varios dispositivos y luego volver a recomponerlo. Según el documento del desarrollo, en Deepseek no simplemente se han dedicado a eso, sino que han hecho modificaciones en cosas como la carga de trabajo de las gráficas y los procesos de comunicación con servidores.

"A pesar de todo, han necesitado 10.000 GPU, que no es moco de pavo", explica Andrés Torrubia, experto en IA esta semana a Teknautas. Otra de las cosas a las que se suele echar mano de la transferencia de aprendizaje, que es coger otro modelo, por ejemplo, de código abierto y utilizar el conocimiento para acelerar el entrenamiento de una nueva IA. El problema en esta ocasión es que OpenAI acusa a la compañía china de haber utilizado ilícitamente sus modelos.

"Una de las técnicas a las que se suele recurrir, es la del entrenamiento distribuido, es decir fraccionarlo entre varios dispositivos"

Sin embargo, Alexandr Wang, CEO de Scale AI, dio hace unos días en una entrevista en el que aseguraba que la empresa detrás de esta revolución contaba con cerca de 50.000 H100, la que hasta hace dos telediarios era la gráfica pata negra de Nvidia. "No pueden hablar de ello por los controles de exportación de Estados Unidos", aseguró ese directivo durante su intervención en CBNC.

¿Cómo han podido acceder a ellas? Pues básicamente en el mercado secundario o a través de intermediarios. Una reciente investigación TSMC reveló el problema que existe. Un estudio de Techinsight encontró piezas fabricadas por la empresa taiwanesa en una gráfica firmada por una subsidiaria de Huawei. Las pesquisas resolvieron que PowerAIR, una firma de Singapur, era la que estaba facilitando estos materiales por la puerta de atrás. La decisión fue la de romper relaciones. Estados Unidos ha incrementado la vigilancia en terceros países, porque se sospecha que otros países del sudeste asiático, como India, están actuando como corredores para que las tecnológicas chinas obtengan ilícitamente estos materiales.

La baza de lo local

Pero también cabe destacar que la industria local está consiguiendo avances en esta dirección. La propia Nvidia es consciente de que otros jugadores están empujando para lograr una alternativa que no dependa de ellos y por eso creó el chip H20, una versión desnatada, que todavía puede comercializar allí. El propio régimen de Pekín está empujando esta vía y son varios medios los que indican que desde hace meses ha impuesto restricciones a estas compras.

TSMC ya ha detectado que clientes suyos de Singapur 'revenden' material a China

Todas las esperanzas están puestas en Huawei y SMIC, la mayor fundición de chips del país. Desde hace un lustro, Huawei empezó a trabajar en gráficas y ha tenido notables resultados gracias a su línea Ascend, aunque sigue todavía a la zaga del rendimiento que ofrecen las de Nvidia. La compañía, conocida por su negocio de móviles y redes, se dio la mano en 2024 con iFlyTek, una empresa local de IA, con el fin de mejorar su línea de GPUs. Aunque la información llega con cuentagotas, en algunas pruebas concretas, estos componentes made in China habrían superado algunos productos de Nvidia.

Para ganar cuota de mercado y arrebatar negocio a la empresa dirigida por Jensen Huang, Huawei está apostando no tanto por componentes para el entrenamiento sino para la fase de inferencia, que, en resumen, es la potencia necesaria para dar servicio a millones de personas. La compañía china, según reveló el Financial Times, habría desarrollado un software puente para hacer su catálogo compatible con productos entrenados con chips de Nvidia. Una apuesta que puede salirle redonda a China ahora que DeepSeek y otros de sus compatriotas han puesto en jaque ese mantra de que la única manera de sacar inteligencias artificiales adelante era acumular una fuerza bruta ingente.

La última semana ha sido un terremoto en la industria tecnológica. De la nada, una empresa china desconocida para muchos, DeepSeek, irrumpió con un modelo de inteligencia artificial que no solo rivaliza con los de OpenAI, hasta ahora la joya de la corona del sector, sino que además es radicalmente más eficiente: 30 veces más barato de ejecutar y que no depende de gigantescas granjas de centros de datos. Su aparición desató el pánico en los mercados, con caídas millonarias en las Bolsas, pues se había puesto en entredicho la narrativa dominante hasta ahora: más hardware y más potencia, mejor IA. Se asumía que la innovación dependía de modelos colosales que devoraban chips, electricidad y presupuestos astronómicos. Pero estábamos equivocados y DeepSeek ha reventado esa creencia en unos pocos días.

Noticias de China Inteligencia Artificial Alibaba DeepSeek
El redactor recomienda