¿Comprarías un coche autónomo que escogiera matarte para salvar más vidas?

Una macroencuesta comienza a poner los primeros criterios morales sobre cómo queremos que actúen los coches autónomos ante accidentes mortales inevitables. ¿Salvamos a la anciana o a la niña? Pero el dilema se complica cuando quien puede morir es el pasajero que ha comprado y confía en ese coche.

Por – Nov 10, 2018 - 10:30 (CET)

Los vehículos autónomos ya están aquí. Aunque sea en fase de pruebas, estos vehículos sin conductor inteligentes, prometen ser mayoría en las carreteras en un horizonte de tiempo que los expertos calculan entre 15 y 30 años. Su objetivo es claro: reducir la gran cantidad de accidentes que se producen por error o negligencia humana, la gran mayoría de ellos. Sin embargo, el coche autónomo también ha llegado con sus propios dilemas morales, y no son desde luego sencillos.

Pongamos que un coche autónomo sin conductor -pero sí con pasajeros- circula por una ciudad. Él respetará todas las señales de velocidad y tráfico, pero debe estar 'entrenado' o programado para saber cómo actuar en caso de un fallo mecánico. Imaginemos que nuestro coche autónomo se queda sin frenos frente a un paso de peatones. El choque y la muerte de al menos una persona es inevitable. ¿Qué debería hacer el coche bajo nuestro juicio ante estos supuestos fatales?:

  • Dilema 1: el coche debe elegir entre atropellar un perrito o a una anciana.
  • Dilema 2: el coche debe elegir entre atropellar a un hombre trajeado o a un indigente.
  • Dilema 3: atropellar a un peatón que ha cruzado en rojo o estrellarse y matar al pasajero.
  • Dilema 4: debe elegir entre atropellar a una mujer embarazada que cruza o dar un volantazo y estrellarse, matando al pasajero.
  • Dilema 5: elegir entre atropellar a una mujer embarazada que cruza o estrellarse y matar al pasajero, que también es una mujer embarazada.

Como vemos, la casuística es tremenda, y el abismo moral al que nos enfrenta también. Todas estos supuestos se inspiran en el llamado 'dilema del tranvía', diseñado por la filósofa británica Philippa Foot en 1967. Su enunciado es el siguiente: un tranvía va desbocado y sin frenos hacia cinco personas que están atrapadas en la vía. Nosotros, como jueces, tenemos la posibilidad de activar una palanca que lo desvía a otra vía, donde hay un operario que morirá si lo hacemos. La mayoría de las respuestas que se han probado en distintos estudios indican que nos inclinamos por activar la palanca y salvar a las cinco vidas a cambio de sacrificar al operario. En ética, la cantidad tiene su peso, y parece lógico. ¿Pero se merece ese operario que nosotros lo encaminemos hacia una muerte de la que se habría salvado sin nuestra intervención? Si hasta ahora no te ha volado la cabeza con tanto dilema moral, quizá seas una máquina.

Todas estas cuestiones enfocadas al coche autónomo han sido puestas a prueba por un grupo de investigadores del MIT desde 2014. Diseñaron a modo de videojuego una encuesta en la que había que escoger a quién debería atropellar y a quién salvar un vehículo autónomo en distintas situaciones. Lo que no preveían es que este test llamado Moral Machine (en el que aún se puede participar) se iba a hacer viral. La semana pasada publicaron en Nature los primeros resultados después de recolectar las opiniones de más de dos millones de personas de 233 países distintos. Y sus resultados son una muestra en sí misma de nuestros barómetros morales.

¿Atropellar a jóvenes o ancianos?: la respuesta varía por países

A cada encuestado se le planteaban una media de diez situaciones de atropellar/salvar donde tenía que elegir qué opción veían más óptima, y los resultados dan algunas tendencias globales.

Ejemplo de una de las cuestiones morales preguntadas en la encuesta del MIT.

En primer lugar, preferimos salvar a las personas antes que a los animales. También por norma preferimos que se salve el mayor número de personas, aunque esto provoque la muerte del pasajero. La tercera decisión más común es que si el coche debe elegir entre matar a un joven o a un anciano, la persona de mayor edad deba morir. Buscando ordenar qué persona es más óptima para salvarse ante un accidente fatal, los encuestados dan preferencia, por este orden, a un bebé, seguido de una niña, un niño y una mujer embarazada. Por el contrario, los más sacrificables en estas situaciones serían las ya citadas mascotas, los delincuentes, los ancianos y los indigentes.

Sin embargo estas respuestas no se dan de igual forma en todos los países. En su estudio el MIT desgrana cómo las opciones varían por países. Así, las sociedades asiáticas tienden a dar mayor peso a los ancianos, algo que los investigadores achacan al respeto que tienen por los mayores. En las sociedades occidentales, por el contrario, se prefiere salvar al mayor número de personas en cualquier caso, mientras que también se prefiere salvar a las personas sanas sobre las obesas y a los ejecutivos sobre los indigentes. Otra diferencia reseñable es que en los países en vías de desarrollo o con instituciones débiles, se compadecen más de los infractores que cruzan con el semáforo en rojo.

Los investigadores marcan desde el comienzo que con su encuesta no se busca crear un canon que marque cómo se debe comportar el coche autónomo en el futuro. Es decir, no quieren buscar la preferencia universal para que nuestros coches actúen en base a ello y así complacer a la gente, pero sí que creen que conocer estos datos puede ayudar a anticipar la reacción de la opinión pública cuando estos accidentes (como ya ha pasado con el coche autónomo de Uber) comiencen a darse.

La gran pregunta para el avance de la industria es saber qué hacer con el pasajero

En Christine, Stephen King escribía la historia de un coche que, sin ser autónomo, también quiere matar a sus pasajeros.

Es complicado saber cómo debería actuar y cómo se debería fijar que actuara un vehículo autónomo ante situaciones fatales. Y la pregunta va a más si pensamos quién lo debería hacer: ¿quizá los fabricantes, que podrían vender modelos con el eslogan “este coche nunca elegirá que muera los pasajeros”, las personas con encuestas como las del MIT, o quizá las instituciones con regulaciones que podrían variar de país en país?

Por el momento Alemania es el estado que más se ha acercado a intentar trazar una regulación futura. En 2017 un grupo de expertos en el que había ingenieros, políticos, representantes de los fabricantes y por supuesto filósofos elaboraron un primer código con 20 normas, de la cual la más importante decía que el coche autónomo “no puede distinguir a nadie según su aspecto, edad o condición”. Es decir, que según este reglamento, para el coche valdría lo mismo una mujer embarazada que un anciano o un niño.

Sin embargo, todas estas primeras disposiciones siguen sin dejar clara una cuestión que es la más importante para el avance del vehículo autónomo: ¿va a confiar un comprador en un coche que puede poner en riesgo su vida si está programado para valorar que es el mal menor ante la muerte de más personas? Esta pregunta ha generado los primeros think-tank de opinión por parte de los grandes fabricantes y las empresas con intereses (Google, Uber, Ford...), sin que de momento nadie se atreva a contestarla. Un estudio de 2016 que preguntaba sobre este mismo tema sugería que la mayoría de los encuestados se inclinan hacia que el coche autónomo salve siempre al mayor número de personas posibles, aunque esto implique la muerte del pasajero. Sin embargo, al ser preguntados sobre si comprarían un coche que podría tomar la decisión de sacrificarlos, los encuestados admitían tajantemente que no.

El dilema va a más cuando lo envolvemos en otras cuestiones que pueden afectar a la ética. Hasta ahora, las respuestas más aceptadas al dilema del tranvía se dividían en tres propuestas filosóficas. En primer lugar están los utilitaristas, que se rigen porque el resultado sea lo más beneficioso posible. Es decir, que si se pueden salvar 5 vidas, se debe sacrificar al pasajero. Está también la postura deontológica, que emana del pensamiento de Kant, y que apuesta porque la moral debe partir de la razón sin importar distinciones. Según esto, el modo de actuación de un coche autónomo debería regirse por una regulación consensuada que fijara unas normas. Y por último está la llamada ética de la virtud, impulsada por la creadora del dilema, Philippa Foot, la cual cree que el acto moralmente válido es aquel que nos hace mejores. Llevado de nuevo al coche autónomo, este supuesto nos lleva a una situación en la que el pasajero cree o incluso configura su coche para que se estrelle con él dentro en un momento dado porque él mismo cree que es lo más justo. Pero esto también tiene su otra cara, casi como si habláramos de una prueba de las películas Saw: ¿Y si el coche autónomo no lleva como pasajero a este propietario altruista sino a su hija? ¿Debería sacrificarla también?

A ello se suman otras cuestiones imprevisibles a día de hoy, como que en el futuro quizá estos coches autónomos sean más comunes en sistemas de car-sharing que como vehículos privados. ¿Se nos obligará a firmar un documento antes de iniciar el viaje por lo que pueda pasar? ¿Surgirán compañías que ofrezcan sus vehículos como seguros, u otras que lo hagan para personas dispuestas a poner su pellejo en juego en algunos casos? Sin duda alguna, lo que no parece claro es que todos estos dilemas se vayan a resolver pronto.