Allá por los años 40 el gran [**Isaac Asimov**](http://es.wikipedia.org/wiki/Isaac_Asimov) se inventaba las [tres leyes de la robótica](http://es.wikipedia.org/wiki/Tres_leyes_de_la_rob%C3%B3tica) las cuales aparecen de una u otra forma en muchas de sus obras. El objetivo de las tres leyes es proporcionar “un código básico de conducta” para proteger a los humanos de los robots.

Ahora **David Woods** y **Robin Murphy**, ambos ingenieros, [han reescrito estas tres leyes](http://www.newkerala.com/nkfullnews-1-83015.html) y proponen otras que se ajustan más a la realidad y crean el marco para una interacción segura entre hombres y máquinas. Claro está, las propuestas de los ingenieros son más aburridas que las de Asimov. Son estas:

- Ningún ser humano puede usar un robot sin antes conocer las normas legales y profesionales de seguridad y ética robot del sistema de funcionamiento humano/robot

- Un robot debe responder a los seres humanos de manera apropiada a sus funciones

- Un robot debe tener la suficiente autonomía para proteger su propia existencia siempre y cuando no entre en conflicto con la primera y segunda ley

Para quién no las conozca o no las recuerde, las tres leyes de la robótica postuladas por Isaac Asimov dicen lo siguiente:

- Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.

- Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.

- Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.

Personalmente y aunque las propuestas por Woods y Murphy se ajusten más a la realidad, me parecen muy ambiguas y me sigo quedando con la de Asimov, donde va a parar. Concluyendo, **¿tus tres leyes para evitar problemas entre humanos y robots en el futuro para no terminar como los de [Battlestar Galactica](http://es.wikipedia.org/wiki/Battlestar_Galactica)?**