La conducción autónoma total (FSD) de Tesla nuevamente está bajo la lupa. Durante noviembre de 2022, en San Francisco se suscitó un accidente de tráfico provocado tras una acción inesperada de un Tesla Model 3. Si bien en un principio solo se contaba con los testimonios de aquellos conductores involucrados, recientemente se pudo obtener una grabación del acontecimiento, el cual deja claro que el vehículo de la automotriz eléctrica fue el principal responsable.
Según el chofer del Tesla Model 3, al momento del percance tenía activada la conducción autónoma total. El problema se produjo cuando el coche se frenó completamente pese a no tener ningún obstáculo por delante. Al circular en una vía de alta velocidad, los vehículos que venían detrás no alcanzaron a detenerse, ocasionando una carambola que, según las autoridades, resultó en 8 unidades afectadas. Afortunadamente, no hubo víctimas que lamentar, aunque sí algunos lesionados.
Ahora bien, las autoridades de California describen que la conducción autónoma total del Tesla involucrado se encontraba en la beta 11. Entonces, operaba en el Nivel 2 de conducción autónoma. ¿Qué quiere decir esto? Pues que la automatización es parcial, así que el conductor tenía la oportunidad de intervenir manualmente pisando el acelerador, pero no lo hizo.
Evidentemente, que el conductor haya señalado estar usando la conducción autónoma total, ha generado múltiples críticas contra la compañía liderada por Elon Musk. Además, claro, ciertos medios locales se hicieron eco del accidente y aprovecharon la situación para idear titulares alarmistas contra el FSD de Tesla. ¿Realmente están justificados?
Tesla nuevamente ha sido criticada
Aunque todavía no está totalmente comprobado que la declaración del chofer sea 100% cierta, no se puede obviar que la conducción autónoma total de Tesla ha estado rodeada de polémica últimamente. Ya no es solo el hecho de mantenerse en estado Beta durante tantos años, sino también que se han reportado algunos comportamientos anómalos que ponen en riesgo a los pasajeros.
El tema de la frenada sin razón no es algo nuevo. Desde Electrek reportan que este fenómeno, conocido habitualmente como Phantom braking (frenado fantasma), ha afectado a algunos propietarios de coches Tesla con Autopilot (incluso sin estar probando el FSD). Básicamente, el Autopilot detecta, de manera equivocada, la presencia de un obstáculo enfrente. Al anticipar una colisión, se activa el freno autónomo para evitar el "choque".
A finales de 2021, se incrementaron considerablemente los reportes de frenado fantasma en coches Tesla, sobre todo en Estados Unidos. Si bien algunos clientes se acercaron a la automotriz en busca de soluciones, la compañía se limitó a decir que eran fallos de software. Por lo tanto, podían corregirlos a través de una actualización.
Sin embargo, el vídeo del accidente de San Francisco ha demostrado que el inconveniente no ha sido resuelto. Al menos no en su totalidad. Queda en evidencia, también, que cuando el Phantom braking se presenta mientras se circula en una carretera con tráfico denso, existe un enorme riesgo de ocasionar un accidente.
California prohíbe el nombre "conducción autónoma total"
Durante diciembre de 2022, el estado de California aprobó una ley que prohíbe a Tesla, o cualquier otra automotriz que ofrezca funciones de conducción asistida, usar el nombre "conducción autónoma total" porque puede ser engañoso. El motivo es muy simple: hoy en día, ningún software, ni siquiera el de Tesla, es lo suficientemente confiable para llamarlo de esa manera. Si alguna empresa viola esta normativa, se le considerará como "publicidad engañosa".
Sin lugar a dudas, la grabación del percance, aunada a los reportes previos del frenado fantasma y la nueva ley aprobada en California, incrementan la presión sobre Tesla. Los dirigidos por Elon Musk deben pisar el acelerador para mejorar las capacidades del FSD, empezando por las más básicas.