leyes-asimov

Allá por los años 40 el gran Isaac Asimov se inventaba las tres leyes de la robótica las cuales aparecen de una u otra forma en muchas de sus obras. El objetivo de las tres leyes es proporcionar “un código básico de conducta” para proteger a los humanos de los robots.

Ahora David Woods y Robin Murphy, ambos ingenieros, han reescrito estas tres leyes y proponen otras que se ajustan más a la realidad y crean el marco para una interacción segura entre hombres y máquinas. Claro está, las propuestas de los ingenieros son más aburridas que las de Asimov. Son estas:

  • Ningún ser humano puede usar un robot sin antes conocer las normas legales y profesionales de seguridad y ética robot del sistema de funcionamiento humano/robot

  • Un robot debe responder a los seres humanos de manera apropiada a sus funciones

  • Un robot debe tener la suficiente autonomía para proteger su propia existencia siempre y cuando no entre en conflicto con la primera y segunda ley

Para quién no las conozca o no las recuerde, las tres leyes de la robótica postuladas por Isaac Asimov dicen lo siguiente:

  • Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.

  • Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.

  • Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.

Personalmente y aunque las propuestas por Woods y Murphy se ajusten más a la realidad, me parecen muy ambiguas y me sigo quedando con la de Asimov, donde va a parar. Concluyendo, ¿tus tres leyes para evitar problemas entre humanos y robots en el futuro para no terminar como los de Battlestar Galactica?

👇 Más en Hipertextual