Allá por los años 40 el gran Isaac Asimov se inventaba las tres leyes de la robótica las cuales aparecen de una u otra forma en muchas de sus obras. El objetivo de las tres leyes es proporcionar “un código básico de conducta” para proteger a los humanos de los robots.
Ahora David Woods y Robin Murphy, ambos ingenieros, han reescrito estas tres leyes y proponen otras que se ajustan más a la realidad y crean el marco para una interacción segura entre hombres y máquinas. Claro está, las propuestas de los ingenieros son más aburridas que las de Asimov. Son estas:
Ningún ser humano puede usar un robot sin antes conocer las normas legales y profesionales de seguridad y ética robot del sistema de funcionamiento humano/robot
Un robot debe responder a los seres humanos de manera apropiada a sus funciones
Un robot debe tener la suficiente autonomía para proteger su propia existencia siempre y cuando no entre en conflicto con la primera y segunda ley
Para quién no las conozca o no las recuerde, las tres leyes de la robótica postuladas por Isaac Asimov dicen lo siguiente:
Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.
Personalmente y aunque las propuestas por Woods y Murphy se ajusten más a la realidad, me parecen muy ambiguas y me sigo quedando con la de Asimov, donde va a parar. Concluyendo, ¿tus tres leyes para evitar problemas entre humanos y robots en el futuro para no terminar como los de Battlestar Galactica?