TAMBIÉN HACEN FUNCIONAR EL LIMPIAPARABRISAS

Descubren cómo 'hackear' un Tesla para que se estrelle contra otros coches

Hicieron que cambiara de carril con unas pegatinas que son imperceptibles para el ojo humano, pero que sí captaron las cámaras del vehículo

Foto: Nuevo Model 3, el acceso a la marca Tesla desde 59.100 euros en el mercado español.
Nuevo Model 3, el acceso a la marca Tesla desde 59.100 euros en el mercado español.

Unas simples pegatinas sobre el asfalto son suficientes para engañar a un Tesla y obligarle a cambiar de carril y estrellarse contra un vehículo que viene de frente. Ésa es la conclusión a la que ha llegado un grupo de investigadores que han trabajado en las medidas de seguridad de los vehículos que se conducen automáticamente detectando algunos fallos críticos.

El más importante es el que permite obligar a uno de estos vehículos a cambiar de carril, pero sin entrar en su sistema operativo. La tecnología de conducción automática que permite a los Teslas circular está basada en una compleja red de cámaras, radares y sensores ultrasónicos que recogen información y la transmiten al sistema central para su análisis en tiempo real.

Sin embargo, los investigadores consiguieron engañar al sistema colocando unas sencillas pegatinas que pasan totalmente desapercibidas al ojo humano, pero que alteran las decisiones del sistema. Cuando lo pusieron en práctica, el coche creyó que el carril se desplazaba hacia la izquierda y el piloto automático cambió de carril, por lo que se hubiera provocado un accidente con el vehículo que vendría de frente.

Rápidas soluciones

Los investigadores han publicado sus descubrimientos en un documento de 38 páginas. Ahí hacen referencia a su experimento: “Tesla utiliza la visión por ordenador como solución pura para el reconocimiento de carriles y (…) nuestros experimentos demostraron que esta arquitectura tiene riesgos de seguridad. El reconocimiento de carril inverso es una de las funciones necesarias para la conducción autónoma en carreteras no cerradas”.

Las pegatinas, que aparecen en rojo, fueron suficientes para engañar al sistema
Las pegatinas, que aparecen en rojo, fueron suficientes para engañar al sistema

Tesla reconoce el problema, pero asegura mediante un comunicado que recoge Ars Technica que ya fue solucionado en la versión 2018.24 antes de que llegara el informe de los investigadores. Lo mismo sucedió con un problema de vulnerabilidad que les permitió controlar un Tesla con un mando a distancia. También ese error fue corregido en la misma actualización.

No es el único problema que los investigadores han encontrado en los vehículos de conducción automática. Pudieron manipular el sistema que activa los limpiaparabrisas automáticamente, pese a que no estaba lloviendo. Esto se debe a que la mayoría de coches que tienen este sistema usan sensores ópticos para detectar la humedad, pero Tesla se basa en la información que envían sus cámaras al sistema de inteligencia artificial.

Tesla asegura que se trata de “escenarios en los que el entorno físico alrededor del vehículo se modifica artificialmente"

Así, fue fácil hacer que el sistema creyera que estaba lloviendo introduciendo en ese sistema pequeños cambios gracias a imágenes colocadas en la carretera o en otros vehículos. Algo que los ‘hackers’ podrían hacer si quisieran atacar el sistema de conducción automática, aunque Tesla asegura que se trata de “escenarios en los que el entorno físico alrededor del vehículo se modifica artificialmente para hacer que los limpiaparabrisas automáticos o el sistema de piloto automático se comporten de manera diferente”.

Tecnología

El redactor recomienda

Escribe un comentario... Respondiendo al comentario #1
0 comentarios
Por FechaMejor Valorados
Mostrar más comentarios