Los sistemas de conducción autónoma continúan evolucionando para mejorar su desempeño y seguridad. Sin embargo, aún están lejos de encontrar el nivel de fiabilidad que se busca. En el Instituto Tecnológico de Massachusetts (MIT) están dispuestos a colaborar para que esta tecnología siga creciendo, y no lo harán solos. Con la participación de investigadores de Microsoft, desarrollaron un método para aumentar la inteligencia de coches y robots autónomos.

Según señalan, los métodos para enseñar a sistemas autónomos no siempre coinciden con las situaciones que suceden en el mundo real, lo cual genera un aprendizaje menos eficiente. La mayoría son simulaciones virtuales que intentan recrear todo tipo de inconvenientes que surgen en el camino. No obstante, no están cubiertos en su totalidad, ya que en un trayecto pueden ocurrir eventos inesperados, los llamados "puntos ciegos". El desconocimiento ocasiona que el vehículo no responda apropiadamente al problema.

Humanos como solución

La propuesta de ambas instituciones es que los humanos intervengan directamente en el proceso de aprendizaje. Seguirán utilizando un entrenamiento simulado, pero una persona se encargará de observar cada acción del sistema para crear un reporte; ya sea sobre errores cometidos o en los que estuvo a punto de caer.

Esa información será combinada con datos generados por humanos en el mundo real, permitiendo que el machine learning (aprendizaje automático) pueda crear un modelo para identificar en qué momentos se requiere más información sobre cómo actuar correctamente. El procedimiento ya fue validado haciendo uso de videojuegos, ahora quieren llevarlo a un ambiente real con coches autónomos y robots.

"El modelo ayuda a los sistemas autónomos a saber mejor lo que no saben", declaró Ramya Ramakrishnan, quien participa en el proyecto representando al Laboratorio de Ciencias de la Computación e IA del MIT. Agrega que su idea es "usar a humanos para cerrar esa brecha entre la simulación y el mundo real, de manera segura, para que podamos reducir algunos de esos errores".

Proceso y obstáculos

Por supuesto, el sistema puede obtener mejores resultados e información más valiosa en calles y carreteras, tomando siempre las debidas precauciones para evitar accidentes. De acuerdo al informe, mientras la persona conduce, el sistema autónomo estudia las acciones y las compara con sus movimientos en el simulador. Al identificar un comportamiento diferente, se establece que esa situación podría estarse resolviendo de forma inadecuada por el software.

Otra forma de reconocer escenarios de riesgo es cuando un auto se conduce solo y el humano toma el control del volante para realizar una corrección, haciéndole saber al sistema que su solución no era acertada. Ahora bien, todos estos avisos podrían causar cierta confusión a la inteligencia artificial, pues una acción puede ser correcta o incorrecta en situaciones que percibe como idénticas. "El sistema recibe una nota de que hizo algo mal, pero no sabe por qué", señaló Ramakrishnan.

Para resolver lo anterior, crearon un algoritmo llamado Dawid-Skene, que utiliza aprendizaje automático para gestionar las señales que se reciben. Emplea todos los datos generados y aplica cálculos de probabilidad para determinar qué situación es "segura" y cuál es un "punto ciego". Si se etiqueta como la segunda, "el sistema puede consultar a un humano por la acción aceptable, permitiendo una ejecución más seguro", concluyó el investigador.