Todos quieren meterte un robot en casa, pero no será una Roomba. Y hay una razón de peso
Los humanoides han sido los grandes protagonistas del CES de Las Vegas, con lanzamientos de modelos capaces de planchar, poner la lavadora o hacer de currito en una fábrica. Este es el motivo detrás de la tendencia del año
CLOiD, durante su presentación en el CES. (EFE/L. Chacon)
La robótica, especialmente la industrial, ha arrastrado un complejo en silencio durante décadas: ha sufrido de agorafobia, a su manera. Para entender de qué se trata sólo hacía falta entrar en uno de los centros logísticos de tamaño mastodóntico que tiene Amazon repartidos por todo el mundo. El rey del comercio electrónico es buen termómetro para conocer tanto las limitaciones como los avances de esta tecnología, porque es una de las compañías del mundo más obsesionadas con la automatización para poder sostener la promesa sobre la que basa su negocio: que compres lo que compres, va a llegarte en el menor tiempo posible.
En muchos de sus almacenes, existe una tierra de nadie. Una superficie perfectamente pulida, vallada y señalizada donde miles de robots similares a aspiradores gigantes mueven estanterías en un baile tan coreografiado como el cambio de guardia de Buckingham Palace. Pero había un truco: si un bote de champú se escapaba y caía al suelo, el sistema se detiene. Estas máquinas, una maravilla de la ingeniería de millones de dólares, son incapaces de agacharse.
Hasta que un humano, equipado con un chaleco de radiofrecuencia que congela la zona, lo recoge, no vuelve a funcionar. Esto es la norma, no es un problema exclusivo de esta empresa. Por muy sofisticado que fuese el brazo robótico que ensambla coches a una velocidad de vértigo o por muy avanzada que fuese la unidad de transporte de turno, todos ellos compartían una condición compartían una condición impuesta por contrato: vivían aislados en jaulas. Eran prisioneros de lujo porque, hasta ahora, la tecnología era incapaz de descifrar un mundo que no estuviera diseñado exclusivamente a su medida. Y esto, claro, limita las posibilidades.
Pero quizá esta situación haya empezado a caducar esta semana en Las Vegas, donde se ha celebrado el Consumer Electronic Show, más conocido por la siglas CES, de 2026. Esta feria de tecnología es el escaparate más grande del mundo para conocer las novedades de la electrónica de consumo. Teles, coches, gafas de realidad virtual, móviles o electrodomésticos suelen ser los que acaparan los focos habitualmente. Pero este año todos esos productos han sido actores de reparto. Los grandes protagonistas han sido los robots humanoides.
De mayordomos a 'curritos'
El robot humanoide que más miradas concentró fue el de LG, CLOiD, porque no llegó prometiendo fábricas sin personas, sino casas sin fricciones. No es un prototipo encerrado en una vitrina, sino un electrodoméstico con ruedas pensado para convivir con el caos doméstico. Integrado en el ecosistema ThinQ, CLOiD carga lavadoras, dobla ropa, cocina y vacía lavavajillas. En el escenario saludó, agitó las manos y manipuló una toalla con una naturalidad todavía imperfecta, pero reconocible. LG no habló de revolución, sino de algo más prosaico y quizá más ambicioso: tiempo. "Un hogar sin esfuerzo", explicaron. La robótica, por primera vez, no parecía querer sustituir a nadie, sino quitar tareas de encima.
En esa misma liga doméstica, aunque desde un enfoque más pragmático y menos escenográfico, aparecieron propuestas como el Onero H1 de SwitchBot. Con 22 grados de libertad y sensores visuales, de profundidad y táctiles, se mueve por casas desordenadas, recoge platos, organiza zapatos y hace la colada sin depender de la nube. Es lento, sí, pero también relativamente asequible: unos 10.000 dólares cuando llegue al mercado. No corre, no impresiona con acrobacias, pero entiende el entorno. Esa fue una constante en varios de los humanoides 'de casa': menos ciencia ficción y más adaptación. La firma, por ejemplo, deslumbró con North y su motricidad fina, repartiendo cartas o disparando una cámara Instax, recordando que la destreza manual, no la fuerza, es uno de los grandes cuellos de botella que por fin empieza a resolverse.
El mundo industrial tuvo, cómo no, mucho peso en lo que se refiere a novedades. Aquí el nombre propio volvió a ser Boston Dynamics. Atlas, ahora en colaboración con Hyundai y Google DeepMind, ya no es un vídeo viral, sino un candidato a trabajador. Con 56 grados de libertad, capaz de levantar 110 libras y operar en entornos no estructurados, se probó directamente en fábricas reales de Hyundai. En las demostraciones, Atlas se levantó del suelo usando maniobras que ningún humano intentaría y respondió a instrucciones complejas sin necesidad de que el espacio estuviera hecho para él. "Es el paso de la investigación a la fuerza laboral comercial", apuntaron desde el escenario, y por primera vez sonó menos a marketing y más a descripción técnica.
A su alrededor, el ecosistema industrial se desplegó con una diversidad casi abrumadora. NEURA mostró un humanoide capaz de levantar 100 kilos y compartir habilidades en tiempo real; AgiBot presumió de miles de unidades ya desplegadas; EngineAI apostó por potencia y equilibrio extremo; Unitree llevó la robótica de servicio al modelo de suscripción; y otras compañías mezclaron asistencia médica, logística o inspección.
Jensen Huang, el ejecutivo de moda, abordó una de las preocupaciones que más se asocia. El CEO de Nvidia insistió en que los robots no destruirán empleo, sino que lo multiplicarán. Habló de "migrante de IA" para cubrir trabajos que ya nadie quiere hacer y de una escasez de mano de obra que se mide en decenas de millones, no en miles, por el envejecimiento y el declive demográfico. Para Huang, la revolución de los robots no es opcional, sino estructural, una condición necesaria para que la economía siga creciendo. Nvidia, mientras tanto, se posiciona como el proveedor invisible de ese futuro, construyendo las plataformas de software que permitan a los robots moverse, ver y decidir en fábricas, tiendas u hospitales. En el fondo, su tesis es simple y perturbadora: no estamos automatizando porque podamos, sino porque no queda otra.
Jensen Huang, CEO de Nvidia. (Reuters/ Steve Marcus)
Hay una razón bastante menos glamurosa y mucho más práctica para que la industria se haya obsesionado de repente con el cuerpo humano como molde universal: sale carísimo rehacer el mundo. Durante décadas, la robótica industrial optó por el camino fácil, que era obligar a las fábricas, almacenes y procesos a adaptarse a la máquina. Jaulas, suelos perfectos, marcas en el suelo, iluminación controlada, movimientos repetitivos. Funcionaba, pero solo dentro de esos ecosistemas artificiales. El problema aparece cuando intentas salir de ahí. El mundo real es un desastre: escaleras, pasillos estrechos, objetos mal colocados, superficies irregulares y humanos haciendo cosas imprevisibles. La conclusión, asumida ahora con cierto retraso, es incómoda pero evidente: si quieres que los robots estén en todas partes, no puedes rediseñar todas partes. Hay que rediseñar al robot.
Esa idea, que suena casi obvia cuando alguien la dice en voz alta, es la que explica el auge del factor de forma humanoide. Peggy Johnson, CEO de Agility Robotics, lo resumió sin rodeos en una entrevista con El Confidencial durante el pasado Mobile World Congress. "Estos robots están pensados para hacer tareas que no quieren hacer los humanos. Los que actualmente están funcionando están ocupando puestos de trabajo que las empresas no están cubriendo con humanos porque no encuentran humanos que quieran hacerlo", recordó la conocida como ingeniera más poderosa de Estados Unidos.
Para ocupar esos huecos no basta simplemente con mecánica bruta o algoritmos. "Si queremos librarnos de ese tipo de trabajos, necesitamos imitar las capacidades de los trabajadores. Esto es subir escaleras, caminar por superficies irregulares o manipular objetos con la misma facilidad". La clave, por tanto, es esa: que sepan moverse y actuar donde actuamos las personas de carne y hueso. "Los espacios de trabajo son lugares diseñados para los humanos y para que haya una adopción necesitamos que puedan actuar en esos lugares. Por ejemplo, los pasillos con estanterías son un poco más anchas que un hombre y suelen tener la misma altura".
El cuerpo resuelto, ¿ahora?
Con el cuerpo más o menos resuelto, el debate se ha desplazado a otro sitio: cómo enseñarles a trabajar. Y ahí la robótica vuelve a chocar con una realidad incómoda. No hay datos. O, mejor dicho, no hay los datos adecuados. A diferencia del lenguaje o las imágenes, el mundo físico no está documentado en internet de forma reutilizable. Nadie ha subido millones de vídeos etiquetados sobre cómo doblar una camiseta mal puesta o limpiar una mesa llena de obstáculos. China ha decidido atacar ese cuello de botella a la manera clásica: a base de músculo, repetición y dinero estatal. Según ha revelado Rest of the World, el país ha puesto en marcha auténticas fábricas de datos donde cientos de jóvenes, equipados con cascos de realidad virtual y exoesqueletos, repiten una y otra vez gestos cotidianos para que los robots los aprendan. Abrir un microondas, apilar bloques, doblar ropa. "Nos llamamos cibertrabajadores", explicaba uno de ellos bajo seudónimo. Es una cadena de montaje invertida: humanos produciendo movimientos para que las máquinas aprendan a imitarlos.
El planteamiento chino imita lo que otras tantas veces hemos visto. Si el problema es la escasez de datos, se construyen decenas centros para fabricarlos. Decenas de instalaciones financiadas por gobiernos locales, miles de metros cuadrados, robots entrenando en escenarios que imitan fábricas, casas o residencias de ancianos. El riesgo, como advierten algunos analistas, es el de siempre: exceso de capacidad, burbujas y robots entrenados para un futuro que quizá no llegue tan rápido como se promete en ferias como el CES. Incluso dentro de la investigación robótica sigue abierto el debate sobre si esta acumulación masiva de datos humanos es realmente el camino más eficiente hacia una inteligencia física general, o simplemente la solución más obvia cuando no hay otra mejor.
(Reuters / Steve Marcus)
En paralelo, otros actores están apostando por una vía menos literal y más abstracta. Google DeepMind, por ejemplo, no quiere grabar el mundo tal y como es, sino generarlo. Modelos como Genie 3 buscan crear entornos virtuales completos, interactivos y coherentes donde los agentes puedan entrenarse sin romper nada ni poner a nadie en peligro. Mundos que nacen de un texto, evolucionan en tiempo real y responden a las acciones del agente como lo haría un entorno físico. No es tanto enseñar a un robot a doblar una camisa concreta, sino exponerlo a miles de variaciones posibles de doblar cosas hasta que entienda el concepto. Simulación frente a imitación. Escalar mundos, no personas.
Probablemente, el futuro se parezca a una mezcla de ambos enfoques. Humanos enseñando a las máquinas lo básico y modelos generativos creando escenarios infinitos donde equivocarse sea barato. Lo que parece claro es que la robótica ha dejado de ser un problema de tornillos y motores para convertirse en una cuestión de aprendizaje. Ya no se trata de si el robot puede moverse, sino de si sabe qué hacer cuando llega a algún sitio. Y esa, como casi todo lo que está pasando ahora mismo, es una pregunta que acaba llevando inevitablemente a la inteligencia artificial.
La robótica, especialmente la industrial, ha arrastrado un complejo en silencio durante décadas: ha sufrido de agorafobia, a su manera. Para entender de qué se trata sólo hacía falta entrar en uno de los centros logísticos de tamaño mastodóntico que tiene Amazon repartidos por todo el mundo. El rey del comercio electrónico es buen termómetro para conocer tanto las limitaciones como los avances de esta tecnología, porque es una de las compañías del mundo más obsesionadas con la automatización para poder sostener la promesa sobre la que basa su negocio: que compres lo que compres, va a llegarte en el menor tiempo posible.