La Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA, por sus siglas en inglés), ha realizado su primer informe anual sobre los accidentes ocasionados cuando el software de asistencia en la conducción que se incluyen en algunos vehículos de firmas como Tesla, Honda y Toyota, entre otros, estaba en funcionamiento. Tras los reportes de los diferentes fabricantes, la administración ha concluido que el autopilot de los modelos de la compañía de movilidad eléctrica fundada y dirigida por Elon Musk han estado involucrados en 273 accidentes de los 392 relacionados con sistemas avanzados de asistencia al conductor desde el pasado mes de julio.

Los vehículos de Tesla, por tanto, representaron aproximadamente el 70% de todos los accidentes en los que el sistema ADAS de Nivel 2 (sistemas avanzados de ayuda a la conducción, por sus siglas en inglés) estaba en funcionamiento. La administración también ha reportado que 5 de las 6 muertes relacionadas con este tipo de accidentes —algunas de ellas ocurridas en 2019, pero no reportadas hasta ahora—, están vinculadas a sus vehículos. Con los datos, los modelos de la compañía de Elon Musk representan el 60% de los accidentes en los que una o más personas resultaron heridas de gravedad, y aproximadamente el 85% en los que alguna persona fallecieron.

Estos datos ponen en duda el funcionamiento del sistema ADAS de Nivel 2 que Tesla incluye en sus vehículos. No obstante, y pese a que pueden parecer preocupantes, no son concluyentes. Si bien el informe de la NHTSA se basa en la información reportada por los propios fabricantes, hay una serie de factores que se deben tener en cuenta y que podrían reflejar que el autopilot de Tesla, en realidad, no es menos seguro que el sistema de otros fabricantes.

El informe de la NHTSA no garantiza que el Autopilot de Tesla es peor que el ADAS de otros vehículos

Tesla
Photo by David von Diemar

En primer lugar, Tesla es la única compañía que recibe de forma telemática informes detallados sobre los accidentes. Datos que, posteriormente, comparte con la NHTSA. El resto de fabricantes también están obligados a reportar las colisiones en las que sus sistemas de piloto automático estaba activo, pero la forma de recopilar esos datos (que no en todos los casos se hace de forma telemática) podría hacer que las cifras no reflejen todos los casos reales, como sí hace Tesla al usar un sistema automatizado.

Por otra parte, el informe no detalla el número total de vehículos analizados o la distancia que estos han recorrido con el sistema ADAS de Nivel 2 activo. Solo de esa forma se puede determinar la tasa de error real de cada sistema o comparar las cifras de Tesla con las registradas por otras marcas.

El informe de la NHTSA, por otro lado, no especifica si los accidentes de los vehículos Tesla están causados por el Autopilot estándar o por el FSD, un sistema de piloto automático más avanzado que, actualmente, se encuentra en fase beta. Según la regulación, recordemos, los dos sistemas son considerados de Nivel 2, por lo que es probable que el informe agrupe tanto FSD como el Autopilot estándar.

¿Y por qué es esto relevante? No es lo mismo que los accidentes sean provocados por un software final que está disponible en todos los coches de Tesla (como la variante estándar del Autopilot) que por el sistema Full Self Driving, al que se accede mediante aprobación previa de la marca y que está en fase de desarrollo. El primero es un sistema final que debería funcionar como se espera; el segundo, en cambio, es una función en desarrollo que todavía no está abierta a todo el público.

Tesla, de hecho, es el único fabricante que cuenta con un sistema como este en una especie de beta pública. Los conductores, además, deben aceptar una serie de condiciones antes de registrarse en este programa para acceder a la versión beta. También deben garantizar que permanecerán atentos a la carretera en todo momento por si el software toma alguna decisión errónea.

Tampoco está claro si los accidentes han ocurrido por culpa del propio sistema de conducción –que ha tomado una decisión errónea– o por un factor externo —por ejemplo, algo que ocurrió en la carretera—. Tampoco detalla si el conductor podría haberlo evitado.

¿Qué quiere decir todo esto? Que determinar que el sistema de conducción autónoma de Tesla es inferior o más peligroso que otros únicamente por el total de accidentes en los que estaba activo es un error. Son muchos los matices o variables a tener en cuenta antes de hacer un juicio como ese. Y el informe de la agencia estadounidense, desafortunadamente, no proporciona el suficiente nivel de detalle como para realizar dicho análisis.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: