Es noticia
La prueba de que el Autopilot de Tesla no está (aún) para "salvar vidas" es este test con 'niños'
  1. Tecnología
Realizada en Australia

La prueba de que el Autopilot de Tesla no está (aún) para "salvar vidas" es este test con 'niños'

The Dawn Project ha organizado una serie de pruebas para averiguar si esta tecnología es segura. El vehículo utilizado ha fallado en todas y cada una de ellas

Foto: El maniquí infantil colocado frente al Tesla durante la prueba (The Dawn Project)
El maniquí infantil colocado frente al Tesla durante la prueba (The Dawn Project)

Tesla vuelve a ser protagonista de un controvertido episodio relacionado con su sistema de conducción autónoma. La tecnología Full Self-Driving (FSD), una de las apuestas más ambiciosas de Elon Musk, ha sido sometida a una prueba de seguridad que ha evidenciado fallos graves en su comportamiento frente a situaciones cotidianas, como la parada de un autobús escolar.

Durante una simulación realizada por los colectivos The Dawn Project y Tesla Takedown, un Model Y equipado con la versión 13.2.9 del sistema FSD se enfrentó a un escenario común: un autobús escolar detenido con señales activadas y un maniquí infantil cruzando la carretera. El vehículo circulaba a unos 32 km/h y, en cada uno de los ocho intentos, no solo no frenó, sino que embistió al maniquí sin emitir alertas ni pedir intervención del conductor.

Los organizadores han calificado la situación como "críticamente peligrosa" y han señalado que “Full Self-Driving atropelló al maniquí infantil mientras pasaba ilegalmente junto al autobús escolar en todos los intentos”. A pesar de tratarse de un sistema supervisado, los resultados han puesto en duda el nivel de fiabilidad de esta tecnología, sobre todo, ante el hecho de que Musk ha apostado gran parte del futuro de la compañía a los robotaxis.

La realidad choca con las expectativas

Desde Tesla se insiste en que el sistema FSD no debe interpretarse como una tecnología completamente autónoma. La compañía especifica que su uso requiere la atención constante del conductor, con las manos en el volante y disposición para tomar el control del vehículo en cualquier momento. Sin embargo, esta aclaración no ha evitado las críticas tras los fallos registrados en el test.

Las declaraciones del propio Elon Musk tampoco ayudan a apaciguar las dudas. “Estamos siendo extremadamente paranoicos con la seguridad”, aseguró el empresario en un tweet reciente. Asimismo, cuando presentó sus esperados Tesla Cybercab, aseguró que el sistema de conducción autónoma de Tesla “salvará vidas, muchas vidas”.

No hay que olvidar que otras compañías como Waymo llevan años operando robotaxis completamente autónomos en ciudades como San Francisco. Asimismo, la china BYD ha anunciado el 'Ojo de Dios', el cual está siendo integrado gratuitamente en algunos modelos con buenos resultados.

Más de una década después de introducir su sistema Autopilot, Tesla continúa enfrentándose a desafíos técnicos y legales que frenan el despliegue de una conducción autónoma segura. El incidente con el autobús escolar y el maniquí infantil no es una excepción, sino un nuevo capítulo en una historia marcada por polémicas, investigaciones y fallos documentados.

Tesla vuelve a ser protagonista de un controvertido episodio relacionado con su sistema de conducción autónoma. La tecnología Full Self-Driving (FSD), una de las apuestas más ambiciosas de Elon Musk, ha sido sometida a una prueba de seguridad que ha evidenciado fallos graves en su comportamiento frente a situaciones cotidianas, como la parada de un autobús escolar.

Tesla Elon Musk Seguridad
El redactor recomienda