El fatal accidente de un Tesla Model S bajo el piloto de conducción automática ha generado una gran controversia. Han salido a a luz tanto detractores como creyentes de la conducción autónoma, pero hay que analizar los datos antes de crucificar a Tesla y recordar que la conducción autónoma no es ni será perfecta.
Los Tesla Model S equipados con esta tecnología han recorrido más de 210 millones de kilómetros con Autopilot activado en los que tan solo se ha producido un accidente con víctima mortal. Un dato que no parece tan malo si tenemos en cuenta la gran cantidad de kilómetros recorridos sin accidentes tan graves y sobre todo si lo ponemos en comparación con la probabilidad de tener un accidente mortal si conducimos nosotros: uno cada 100 millones de kilómetros. Autopilot de Tesla según estos datos es el doble de seguro que un humano.
¿Cuántos accidentes mortales habrá evitado ya Autopilot?
El problema radica en la confianza en la conducción autónoma. Elon Musk, el CEO de Tesla, realizó a principios de año unas declaraciones en las que avisaba que Autopilot sería probablemente mejor que una persona conduciendo, unas declaraciones que no se referían al presente sino a lo que puede conseguir Tesla con este programa de conducción asistida, pero que los datos confirman: se producen menos fallecidos en carretera si se usa Autopilot.
Autopilot de Tesla tiene un funcionamiento muy sencillo. Cuando el conductor lo activa tiene que aceptar que es una función de asistencia que requiere al conductor mantener las manos en el volante en todo momento. El sistema realiza múltiples comprobaciones y avisa de forma acústica y visible cuando no detecta las manos. Si transcurre mucho tiempo, el coche comienza a reducir su velocidad hasta que se vuelva a detectar la presencia de las manos. No es un mecanismo infalible, pero deja claro al conductor que debe estar atento.
Solo Tesla ha lanzado su visión de la conducción autónoma al mercado, el resto de fabricantes están siendo más cautos pese a probablemente estar en un nivel superior de la conducción autónoma real: Ford y Google es probable que estén a la cabeza en cuanto a pruebas y tecnología de conducción autónoma.
El accidente se produjo, aparentemente, por un fallo en el sistema de captación de las imágenes al confundir la claridad con el color blanco pero también en la interpretación de las mismas. Al parecer el sistema podría haber identificado al remolque como una señal de tráfico al ser blanco y no tapar la carretera en su parte inferior. ¿Cómo se pudo haber evitado y cuáles son las consecuencias que puede tener este accidente?
¿Se pudo haber evitado? ¿Qué soluciones se pueden tomar?
El piloto automático de Tesla se basa en cámaras y radares para detectar y evitar obstáculos pero las cámaras no fueron capaces de diferenciar de manera efectiva el lado blanco del remolque del tractor contra un cielo iluminado. Estamos ante un problema de tecnología pero sobre todo de captación de las imágenes.
La práctica totalidad de los coches autónomos emplean radares LIDAR excepto el Model S.
Tras este fallo a la hora de detectar objetos es probable que los propietarios del Model S reciban una actualización del software que sirva para diferenciar de forma más fiable entre remolques y señales de tráfico si es que este fue el problema. ¿Puede el software estar calibrado para centrarse en evitar frenadas falsas? Lo bueno de las actualizaciones OTA es que este accidente puede servir para mejorar la conducción autónoma.
La otra solución es añadir un sensor LIDAR, que en Tesla no quieren usar, y que es capaz de detectar de una forma mucho más eficaz carreteras mojadas o superficies reflectantes gracias a una alta resolución a varios cientos de metros. ¿Por qué no usa el Model S un sensor LIDAR? Porque Musk considera que este trabajo se puede realizar con ópticas convencionales y como mucho instalar un radar enfocado hacia delante para mejorar la conducción con lluvia, nieve o polvo.
En el otro lado de la balanza se encuentra la comunicación entre vehículos, fundamental para la conducción autónoma. Un sistema que permitiría comunicar información importante relacionada con velocidad o movilidad y que ayudaría a evitar este tipo de accidentes. El coche tendría la información de sus radares pero también la información con la posición del resto de coches para poder tomar mejores decisiones.
Lo bueno de la conducción asistida de Tesla con el programa Autopilot es un accidente es posible que no vuelva a producirse si se analizan y detectan correctamente las causas de la colisión. Eso sí, ¿queremos ser las cobayas o queremos que se realicen más pruebas en entornos controlados? Es inevitable que se produzcan accidentes en la conducción autónoma como ya se producen en la conducción tradicional. Lo importante es que en el primer caso se podría evitar un segundo accidente, y esto es lo que debe prevalecer para que la conducción autónoma llegue al mercado de forma masiva.