Autopilot de Tesla

Tesla Model S con el sistema de auto pilotaje activo.

El autopilot de Tesla, a pesar de ser uno de los más punteros de todos los disponibles, no gana para disgustos. Y es que tras los accidentes sufridos por los Teslas con esta función activada, ahora son los hackers los que han sido capaces de engañar al sistema ideado por Tesla para ocultar los obstáculos en pista y forzar un potencial accidente.

Lógicamente, la seguridad de los coches autónomos es una de las barreras más importantes para la masificación y regulación de esta tecnología, y antes de que llegan al mercado de forma masiva, los investigadores de seguridad están haciendo de las suyas con estos sistemas, eso sí, dentro de pruebas específicas lejos de la vía pública.

De esta forma, un grupo de investigadores de Universidad de Zhejiang de China y la empresa de seguridad china Qihoo 360 aseguran que han encontrado una forma, utilizando señales de radio y sonidos, capaces de engañar a los sistemas de piloto automático de Tesla, algo que tienen planeado enseñar al mundo en una conferencia dentro de la Defcon esta misma semana.

La idea es engañar al radar del Tesla para ocultar obstáculos en la calzadaLos investigadores afirman que, de momento, no hay dada que temer. A día de hoy, para engañar a los sistemas de Tesla se necesita de muchas variables. En primer lugar, que el coche esté parado en el momento de provocarle el engaño -en un semáforo, por ejemplo- y, en segundo, se necesita de equipos específicos muy costosos.

No obstante, la investigación ha ido más allá: este sistema podría ser perfeccionado por los hackers para reproducir intencionalmente el accidente mortal de mayo, mientras el coche está en modo automático y confiando en el radar, de forma que se oculten datos y este no sea capaz de detectarlos a tiempo.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: