Las Leyes de la robótica son un conjunto de leyes, reglas o principios que pretenden ser un marco fundamental para sustentar el comportamiento de los robots diseñados para tener un grado de autonomía. Los robots de este grado de complejidad aún no existen, pero han sido ampliamente anticipados en la ciencia ficción, las películas y son un tema de investigación y desarrollo activo en los campos de la robótica y la inteligencia artificial.

El conjunto de leyes más conocido es el escrito por Isaac Asimov en la década de 1940, o basado en ellas, pero los investigadores han propuesto otros conjuntos de leyes en las décadas posteriores.

Las tres leyes de la robótica de Isaac Asimov
El conjunto de leyes más conocido es «Las tres leyes de la robótica» de Isaac Asimov. Estos se introdujeron en su cuento «Runaround» de 1942, aunque fueron anunciados en algunos cuentos anteriores. Las tres leyes son:

Un robot no puede dañar a un ser humano o, a través de la inacción, permitir que un ser humano sufra daño.
Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
Un robot debe proteger su propia existencia siempre y cuando dicha protección no entre en conflicto con la Primera o la Segunda Ley.

Cerca del final de su libro Foundation and Earth, se introdujo una ley cero:

0. Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daño.

Existen adaptaciones y extensiones basadas en este marco. A partir de 2011 siguen siendo un «dispositivo ficticio».

EPSRC / AHRC principios de robótica
En 2011, el Consejo de Investigación de Ingeniería y Ciencias Físicas (EPSRC) y el Consejo de Investigación de Artes y Humanidades (AHRC) de Gran Bretaña publicaron conjuntamente un conjunto de cinco «principios éticos para diseñadores, constructores y usuarios de robots» en el mundo real, junto con con siete «mensajes de alto nivel» destinados a ser transmitidos, basados ​​en un taller de investigación de septiembre de 2010:

Los robots no deben diseñarse única o principalmente para matar o dañar a seres humanos.
Los seres humanos, no los robots, son agentes responsables. Los robots son herramientas diseñadas para alcanzar objetivos humanos.
Los robots deben diseñarse de manera que garanticen su seguridad y protección.
Los robots son artefactos; no deben diseñarse para explotar a usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debería ser posible distinguir a un robot de un humano.
Siempre debería ser posible averiguar quién es legalmente responsable de un robot.

Related Post

Los mensajes que se pretendían transmitir eran:

Creemos que los robots tienen el potencial de proporcionar un inmenso impacto positivo a la sociedad. Queremos fomentar la investigación responsable de robots.
La mala práctica nos duele a todos.
Abordar las preocupaciones públicas obvias nos ayudará a todos a progresar.
Es importante demostrar que nosotros, como robotistas, estamos comprometidos con los mejores estándares de práctica posibles.
Para comprender el contexto y las consecuencias de nuestra investigación, debemos trabajar con expertos de otras disciplinas, que incluyen: ciencias sociales, derecho, filosofía y artes.
Debemos considerar la ética de la transparencia: ¿hay límites a lo que debería estar disponible abiertamente?
Cuando vemos cuentas erróneas en la prensa, nos comprometemos a tomarnos el tiempo para contactar a los periodistas que informan.

Los principios de EPSRC son ampliamente reconocidos como un punto de partida útil. En 2016, Tony Prescott organizó un taller para revisar estos principios, por ejemplo, para diferenciar los principios éticos de los legales.

Desarrollo judicial
Otra codificación terminológica integral para la evaluación legal de los desarrollos tecnológicos en la industria de la robótica ya ha comenzado principalmente en los países asiáticos. Este progreso representa una reinterpretación contemporánea de la ley (y la ética) en el campo de la robótica, una interpretación que supone un replanteamiento de las constelaciones legales tradicionales. Estos incluyen principalmente cuestiones de responsabilidad legal en derecho civil y penal.

Las leyes de satya nadella
En junio de 2016, Satya Nadella, CEO de Microsoft Corporation en ese momento, tuvo una entrevista con la revista Slate y bosquejó aproximadamente cinco reglas para que sus diseñadores observen inteligencias artificiales:

«La IA debe estar diseñada para ayudar a la humanidad», lo que significa que la autonomía humana debe ser respetada.
«La IA debe ser transparente», lo que significa que los humanos deben saber y ser capaces de entender cómo funcionan.
«AI debe maximizar las eficiencias sin destruir la dignidad de las personas».
«La inteligencia artificial debe diseñarse para una privacidad inteligente», lo que significa que se gana la confianza a través de la protección de su información.
«La IA debe tener una responsabilidad algorítmica para que los humanos puedan deshacer el daño involuntario».
«La IA debe protegerse contra el sesgo» para que no discriminen a las personas.

«Leyes de la robótica» de Tilden
Mark W. Tilden es un físico robótico que fue pionero en el desarrollo de la robótica simple. Sus tres principios rectores / reglas para los robots son:

Un robot debe proteger su existencia a toda costa.
Un robot debe obtener y mantener acceso a su propia fuente de energía.
Un robot debe buscar continuamente mejores fuentes de energía.
Lo que es notable en estas tres reglas es que éstas son básicamente reglas para la vida «salvaje», por lo que, en esencia, lo que Tilden declaró es que lo que quería era «procurar que una especie de silicio fuera sensible, pero con control total sobre las especificaciones. No plantar. No animal. Algo más «.

Share