En ciencia
ficción las tres leyes de la robótica son un conjunto de normas
escritas por Isaac Asimov,
que la mayoría de los robots de sus novelas y cuentos están diseñados para cumplir. En ese universo,
las leyes son "formulaciones matemáticas impresas en los senderos positrónicos del cerebro" de los
robots (líneas de código del programa de funcionamiento del robot
guardadas en la ROM del mismo). Aparecidas por
primera vez en el relato Runaround (1942), establecen lo siguiente:
- Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.[1]
Esta redacción de las leyes es la forma convencional en la que los humanos de
las historias las enuncian; su forma real sería la de una serie de instrucciones
equivalentes y mucho más complejas en el cerebro del robot.
Asimov atribuye las tres Leyes a John W. Campbell, que las habría redactado
durante una conversación sostenida el 23 de diciembre de 1940. Sin embargo, Campbell sostiene que Asimov ya las
tenía pensadas, y que simplemente las expresaron entre los dos de una manera más
formal.
Las tres leyes aparecen en un gran número de historias de Asimov, ya que
aparecen en toda su serie de los robots, así como en varias historias
relacionadas, y la serie de novelas protagonizadas por Lucky Starr. También han sido utilizadas por otros
autores cuando han trabajado en el universo de ficción de Asimov, y son
frecuentes las referencias a ellas en otras obras, tanto de ciencia ficción como
de otros géneros.
Propósito
Estas leyes surgen como medida de protección para los seres humanos. Según el
propio Asimov, la concepción de las leyes de la robótica quería contrarrestar un
supuesto "complejo de Frankenstein", es decir, un temor que el ser humano
desarrollaría frente a unas máquinas que hipotéticamente pudieran rebelarse y
alzarse contra sus creadores. De intentar siquiera desobedecer una de las leyes,
el cerebro positrónico del robot resultaría dañado irreversiblemente y el robot
moriría. A un primer nivel no presenta ningún problema dotar a los robots con
tales leyes, a fin de cuentas, son máquinas creadas por el hombre para su
servicio. La complejidad reside en que el robot pueda distinguir cuáles son
todas las situaciones que abarcan las tres leyes, o sea poder deducirlas en el
momento. Por ejemplo saber en determinada situación si una persona está
corriendo peligro o no, y deducir cuál es la fuente del daño.
Las tres leyes de la robótica representan el código moral del robot. Un robot va a actuar siempre bajo
los imperativos de sus tres leyes. Para todos los efectos, un robot se
comportará como un ser moralmente correcto. Sin embargo, es lícito preguntar:
¿Es posible que un robot viole alguna de sus tres leyes? ¿Es posible que un
robot "dañe" a un ser humano? La mayor parte de las historias de robots de
Asimov se basan en situaciones en las que a pesar de las tres leyes, podríamos
responder a las anteriores preguntas con un "sí".
Asimov crea un universo en el que los robots son parte fundamental a lo largo
de diez mil años de historia humana, y siguen teniendo un papel determinante
durante diez mil años más. Es lógico pensar que el nivel de desarrollo de los
robots variaría con el tiempo, incrementándose su nivel de complejidad cada vez
más. Según Asimov, un robot no razona, es lógico
Historia de las tres leyes de la robótica
Los primeros robots construidos en la Tierra (vistos, por ejemplo, en Yo,
Robot) eran modelos poco avanzados. Era una época en donde la robopsicología no
estaba aún desarrollada. Estos robots podían ser enfrentados a situaciones en
las cuales se vieran en un conflicto con sus leyes. Una de las situaciones más
sencillas se da cuando un robot debe dañar a un ser humano para evitar que dos o
más sufran daño. Aquí los robots decidían en función de un criterio
exclusivamente cuantitativo, quedando luego inutilizados, al verse forzados a
violar la primera ley.
Posteriores desarrollos en la robótica, permitieron la construcción de
circuitos más complejos, con una mayor capacidad de autorreflexión. Una
peculiaridad de los robots es que pueden llegar a redefinir su concepto de
"daño" según sus experiencias, y determinar niveles de éste. Su valoración de
los seres humanos también puede ser determinada por el ambiente. Es así que un
robot puede llegar a dañar a un ser humano por proteger a otro que considere de
más valía, en particular su amo. También podría darse el caso de que un robot
dañara físicamente a un ser humano para evitar que otro sea dañado
psicológicamente, pues llega a ser una tendencia el considerar los daños
psicológicos más graves que los físicos. Estas situaciones nunca se hubieran
dado en robots más antiguos. Asimov plantea en sus historias de robots las más
diversas situaciones, siempre considerando las posibilidades lógicas que podrían
llevar a los robots a tales situaciones.
La ley cero
Uno puede llegar a encariñarse con los robots de Asimov, el cual nos muestra
en sus historias robots cada vez más "humanos". En "El hombre
bicentenario", Asimov nos narra la historia de Andrew Martín, nacido robot,
y que lucha durante toda su vida (como "Uno") para ser reconocido como un ser
humano. Están también R. Daneel Olivaw y R. Giskard
Reventlov, que tienen un papel fundamental en la segunda expansión de los
seres humanos y la consiguiente fundación del imperio galáctico. Siendo los
robots más complejos jamás creados, fueron capaces de desarrollar la ley cero de la robótica ("Zeroth
law", en inglés) como corolario filosófico de la primera:
Un robot no puede hacer daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.
R. Giskard murió en Robots e Imperio, tras verse obligado a
dañar a un ser humano en virtud de la ley cero. El problema fundamental con esta
ley es definir "Humanidad", así como determinar qué supone un "daño" para la
Humanidad. R. Daneel logró asimilarla gracias al sacrificio de Giskard,
convirtiéndose desde entonces en el protector en la sombra de la Humanidad.
Daneel, bajo distintas identidades, se convierte en uno de los personajes más
importantes del ciclo de Trántor (formado por los cuentos
y novelas de robots, las novelas del imperio, y la saga de las fundaciones: 17
libros) siendo además un elemento clave en su continuidad.
EPSRC / AHRC principios de la robótica
En 2011, el Consejo de Investigación de Ingeniería y Ciencias Físicas (Engineering
and Physical Sciences Research Council, EPSRC por sus siglas en inglés) y el
Consejo de Investigación de Artes y Humanidades (Arts
and Humanities Research Council, AHRC por sus siglas en inglés) de Gran Bretaña publicaron
conjuntamente un conjunto de cinco principios éticos "para los diseñadores,
constructores y los usuarios de los robots en el mundo
real, junto con siete mensajes de alto nivel", destinado a ser transmitido,
sobre la base de un taller de investigación en septiembre de
2010.[2]
- Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar a los humanos.
- Los seres humanos, no los robots, son los agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
- Los robots deben ser diseñados de forma que aseguren su protección y seguridad.
- Los robots son objetos, no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.
- Siempre debe ser posible averiguar quién es el responsable legal de un robot.
Los mensajes destinados a ser transmitidos fueron:
- Creemos que los robots tienen el potencial de proporcionar impacto positivo inmenso para la sociedad. Queremos animar a la investigación del robot responsable.
- La mala práctica nos perjudica a todos.
- Abordar las inquietudes obvias del público nos ayudará a todos avanzar.
- Es importante demostrar que nosotros, como especialistas en robótica, estamos comprometidos con los mejores estándares posibles de la práctica.
- Para entender el contexto y las consecuencias de nuestra investigación, debe trabajar con expertos de otras disciplinas tales como: ciencias sociales, derecho, filosofía y las artes.
- Debemos tener en cuenta la ética de la transparencia: hay límites que deben ser accesibles.
- Cuando vemos las cuentas erróneas en la prensa, nos comprometemos a tomar el tiempo para ponerse en contacto con los periodistas.
No hay comentarios:
Publicar un comentario