Es noticia
Descubren cómo engañar a los coches con conducción autónoma, incluidos los Tesla
  1. Tecnología
CON IMÁGENES 2D Y PROYECCIONES

Descubren cómo engañar a los coches con conducción autónoma, incluidos los Tesla

Demuestran que estos sistemas detectan una proyección de una foto de una persona en la carretera como si fuese una persona real

Foto: Test de conducción autónoma realizado en Berlín (Reuters)
Test de conducción autónoma realizado en Berlín (Reuters)

Un equipo de investigadores de la Universidad Ben-Gurión del Néguev (Israel) ha logrado engañar a los sistemas de conducción autónoma más populares (Autopilot de Tesla y Mobileye 630 PRO de Mazda, Renault y Honda) con unas proyecciones 2D sobre la carretera.

Los coches autónomos detectan, a través de una tecnología de reconocimiento que funciona con sensores y cámaras, todo lo que se encuentra en la carretera o calle por la que circula; es decir, señales, personas, líneas en la carretera y otros vehículos.

Foto: Un ingeniero prueba un coche en el Centro de Investigación Automovilística de Virgina. (Reuters)

Estos sistemas se dedican a analizar toda la información que reciben en busca de patrones que reconozcan y actúan (conducen) en consecuencia.

No obstante, la proyección de objetos en 2 dimensiones o también denominados 'fantasmas' puede provocar que el coche autónomo los detecte como reales y varíe su comportamiento.

placeholder Engaño a los sistemas de conducción autónoma. Foto: Youtube
Engaño a los sistemas de conducción autónoma. Foto: Youtube

Las pruebas realizadas demostraron que una proyección de una foto de una persona en la carretera, estos sistemas lo detectan como si fuese una persona real. Similares resultados se obtuvieron variando la disposición de las líneas de la carretera, con fotografías de traseras de coches y proyectando señales de velocidad falsas sobre árboles y paredes.

Peligro de manipulación

Esto demuestra el peligro que puede suponer para los coches autónomos si este tipo de productos cae en malas manos, ya que pueden controlar al automóvil, si está en modo de conducción autónoma, a su antojo. Con ello, los investigadores quieren demostrar que los sistemas de conducción autónoma no son completamente fiables, ya que no tienen forma de discernir si se trata de un objeto físico o de una proyección.

Según los investigadores, mientras que los coches totalmente autónomos o semiautónomos ya se están generalizando en todo el mundo, los sistemas de comunicación que conectan el coche con otros coches, peatones e infraestructura circundante se están retrasando, algo que, en su opinión, provoca una "brecha de validación", que impide que los vehículos autónomos validen su percepción virtual con un tercero, confiando sólo en sensores internos.

"Esto no se tiene en cuenta por la industria. No son errores de codificación, sino defectos fundamentales en los detectores de objetos"

"Esto no está siendo tomado en cuenta actualmente por la industria del automóvil. No se trata de errores de codificación, sino de defectos fundamentales en los detectores de objetos que no están entrenados para distinguir entre objetos reales y falsos", señala Ben Nassi, autor principal del estudio en declaraciones recogidas por SciTechDaily.

En realidad, los objetos sin profundidad proyectados en una carretera se consideran reales aunque los sensores de profundidad pueden diferenciar entre 2D y 3D. Los investigadores creen que este es el resultado de una política de "mejor seguridad que lamentar" que hace que el coche considere un objeto visual 2D como real.

No es el primer aviso que se recibe sobre la conducción autónoma. Ante una situación límite, el vehículo actuará en función de cómo haya sido programado, es decir, dotar de inteligencia artificial al automóvil depende de personas de carne y hueso, sobre lo que se plantea un debate moral que ha llegado al juego online 'Moral Machine' desarrollado por el investigador Javier Gómez.

Asimismo, el matemático español David Ríos, que trabaja dentro del proyecto europeo "Trustonomy Building Acceptance and Trust in Autonomous Mobility", asegura que este tipo de vehículo tiene dos problemas: que su comportamiento sea demasiado rígido ante situaciones inesperadas y "la posibilidad de sufrir un ataque, es decir, que alguien pueda 'hackear' el sistema y convertir el vehículo en un arma terrorista".

Un equipo de investigadores de la Universidad Ben-Gurión del Néguev (Israel) ha logrado engañar a los sistemas de conducción autónoma más populares (Autopilot de Tesla y Mobileye 630 PRO de Mazda, Renault y Honda) con unas proyecciones 2D sobre la carretera.

Tecnología
El redactor recomienda