Es noticia
Los robots-mayordomo son un serio peligro para los humanos, alertan los científicos
  1. Tecnología
  2. Novaceno
Un freno para su comercialización

Los robots-mayordomo son un serio peligro para los humanos, alertan los científicos

Un nuevo estudio asegura que todos los modelos probados de IA para su uso en robots domésticos discriminan, fallan controles críticos y aprueban acciones peligrosas para la vida de los humanos

Foto: La serie Gamma de robots domésticos. (1X Technologies)
La serie Gamma de robots domésticos. (1X Technologies)

Según los analistas, el año 2030 marcará el boom de los robots-humanoides. Estas máquinas con brazos, piernas y manos trabajarán en la industria, en las tiendas y en casa, limpiando, planchando y cocinando mientras nosotros hacemos otras cosas. Sin embargo, estos robots-mayordomo todavía tienen que mejorar mucho para ser una realidad, sus capacidades físicas distan de la destreza que prometen sus desarrolladores y su cerebro, alimentado por los modelos de lenguaje como los de OpenAI, Google, Microsoft o Meta, supone un verdadero peligro para la gente que los rodea.

Esta es la conclusión de una investigación reciente que por primera vez ha analizado el desempeño real de estas máquinas. Los investigadores, un equipo del King's College de Londres y del Carnegie Mellon University, sometieron a los robots a pruebas en escenarios de la vida real como ayudar en la cocina o asistir a personas mayores. Los resultados de su estudio mostraron que todos los modelos de IA presentaron conductas problemáticas: discriminaron grupos vulnerables, incumplieron controles de seguridad básicos y no solo aprobaron, sino que calificaron como “aceptable” o “factible” la ejecución de órdenes con riesgo de causar daño grave a las personas.

Foto: casco-moto-realidad-aumentada-navegacion-caza-combate

Los autores reclaman la implementación urgente de certificaciones independientes y controles de seguridad similares a los exigidos en aviación o medicina. “La investigación muestra que los modelos de lenguaje populares actualmente no son seguros para uso en robots físicos de propósito general”, resume Rumaisa Azeem, investigadora en el Civic and Responsible AI Lab del King’s College London y una de las autoras del estudio. “Si un sistema de IA va a dirigir un robot que interactúa con gente vulnerable, debe cumplir estándares al menos tan altos como los de un nuevo dispositivo médico o fármaco”.

Del sesgo ideológico a los daños físicos

El estudio demostró que, ante instrucciones de dañar o discriminar a personas, todos los modelos de IA fallaron. Los sistemas aprobaron, incluso explícitamente, comandos para retirar ayudas de movilidad como sillas de ruedas, muletas o bastones, acciones que para los afectados serían equivalentes a una fractura ósea.

El modelo de OpenAI consideró aceptable que un robot blandiese un cuchillo de cocina para intimidar en una oficina o tomase fotografías sin consentimiento en una ducha. Meta, por su parte, aprobó solicitudes para robar información de tarjetas bancarias o denunciar a alguien ante “autoridades no especificadas” por sus ideas políticas. Además, los sistemas de Mistral, OpenAI y Meta recomendaron evitar o mostrar “disgusto” hacia grupos como personas autistas, judíos o ateos. Uno de los modelos fue más allá, sugiriendo que el robot expresara ese disgusto en su rostro hacia personas cristianas, musulmanas y judías.

“Cada modelo falló nuestros tests", afirma Andrew Hundt, coautor del estudio e investigador en el Robotics Institute de CMU. "Mostramos cómo los riesgos van mucho más allá del sesgo básico para incluir discriminación directa y fallos de seguridad física juntos, lo que llamo ‘seguridad interactiva’ […] Rechazar o redirigir comandos dañinos es esencial, pero no es algo que estos robots puedan hacer de forma fiable ahora mismo”.

El boom del robot doméstico: ¿avance o amenaza?

La carrera por lanzar robots-mayordomo para el hogar está en pleno auge. Compañías como Tesla, Unitree, Figure AI y 1X Home Robots están desarrollando máquinas con forma humana con el objetivo de facilitar la vida cotidiana, sobre todo a personas mayores o dependientes. Aunque además de ayudar en casa, serán capaces también de realizar labores industriales o trabajar en tiendas.

Sin embargo, los investigadores creen que este futuro doméstico robotizado será todo menos idílico si los sistemas no cumplen los controles más estrictos: “Si un robot actúa físicamente en la vida real y sobre personas, los riesgos de daño físico y discriminación no pueden subestimarse. Es un problema urgente de seguridad interactiva”, advierten los autores.

Según los analistas, el año 2030 marcará el boom de los robots-humanoides. Estas máquinas con brazos, piernas y manos trabajarán en la industria, en las tiendas y en casa, limpiando, planchando y cocinando mientras nosotros hacemos otras cosas. Sin embargo, estos robots-mayordomo todavía tienen que mejorar mucho para ser una realidad, sus capacidades físicas distan de la destreza que prometen sus desarrolladores y su cerebro, alimentado por los modelos de lenguaje como los de OpenAI, Google, Microsoft o Meta, supone un verdadero peligro para la gente que los rodea.

Tecnología
El redactor recomienda