Un vehículo de Tesla, con la beta de la conducción autónoma total se ha visto involucrado en un incidente de tráfico. El momento fue captado en vídeo. El coche, al hacer un giro a la derecha, golpea un bolardo. Como se puede observar, el conductor inmediatamente toma control, y no hubo daños personales que lamentar.

El Model 3 funcionaba con la última versión beta de la conducción autónoma total (2021.44.30.15). El vídeo fue grabado por una persona que publica en YouTube bajo el nombre de AI Addict, que además ha revelado que es un empleado de Tesla.

La conducción autónoma total de Teslabasada en inteligencia artificial entrenada por medio de redes neuronales— se encuentra en versión beta. La compañía otorgó acceso a un cada vez mayor grupo de personas basadas en el nivel de seguridad y precaución a la hora de conducir. Los vehículos de la compañía ya tendrían todo el hardware necesario, simplemente se activa por medio de una actualización de software.

¿Tesla debería haces pruebas de conducción autónoma total en nuestras calles y ciudades?

El accidente captado en vídeo ha despertado, nuevamente, la discusión de si Tesla y otras compañías, deberían hacer pruebas de conducción autónoma total en calles y avenidas públicas. Ante las críticas, un accionista de la compañía publicó en Twitter el pasado 16 de enero que, hasta esa fecha, no se ha registrado un solo incidente con 20.000 personas en el programa beta. Elon Musk contestó simplemente "correcto".

Sí, es verdad que el incidente de tráfico es menor, que se trata de un bolardo y aparentemente no hubo daños ni a la propiedad ni al vehículo, más allá de un rayón en la pintura. Pero ¿qué hubiese sucedido si se trataba de una persona? Tesla responsabiliza al conductor de cualquier problema causado mientras el vehículo está en modo de conducción autónoma total.

Soy bastante optimista sobre los avances de Tesla con la conducción autónoma total. La mejora ha sido significativa en últimos meses. Y la aproximación de la compañía, en que no hace falta hacer un rastreo previo de una zona geográfica para que pueda funcionar (como es el caso de Uber o Waymo) es genial. De igual manera el usar visión artificial para prescindir del sensor LIDAR tiene el potencial de ser revolucionario. Pero estamos hablando de un software en versión beta y un fallo puede cobrar vidas humanas.

Tesla no es la única compañía con coches en modo conducción autónoma total circulando por calles en ciudades de Estados Unidos que han dado problemas. Recientemente se reveló que Waymo (Google) demandó a la autoridad de tránsito de California para intentar esconder los accidentes de tráfico causados por sus vehículos.