martes, 17 de enero de 2017

ROBOTS Y LEGALES

ROBOTS NECESITAN DERECHOS Y UN INTERRUPTOR, ADVIERTEN LOS POLÍTICOS (Partes de un artículo por Steve Ranger | Ene. 13, 2017 Tópico: CES 2017: The Big Trends for Business, ZDNet Innovation Weekly ) (English vewrsion below: ROBOTS NEED RIGHTS, AND KILL SWITCHES TOO, WARN POLITICIANS)
A los robots se les puede otorgar el status de “persona electronica”, dice un informe, lo que implica que se necesita urgentemente un marco legal para robots y automóviles autónomos.

Image: Robot El País
Este muy interesante artículo menciona que “la Unión Europea necesita un conjunto de normas éticas, de seguridad y cobertura de daños para resolver casos resultantes del uso de robots. El Comité de Asuntos Legales del Parlamento Europeo  (The European Parliament’s legal affairs committee (*)) está previendo que los robots gananen el status legal de “personas electrónicas”.
El artículo aparecido en ZDNet menciona que según los MEPS (Parlamentarios Europeos) “Se necesitan regulaciones vigente en toda la UE para poder explotar el potencial económico de la robótica. La UE necesita una nueva agencia europea para la robótica y un código de conducta ética para establecer quién será responsable por los impactos sociales, ambientales y de salud humana de la robótica y asegurar que operan de acuerdo con los estándres legales, de seguridad y éticos”.  El artículo añade que, entre otras cosas, “el código debería incluir una recomendación de que los diseñadores prevean interruptores ("kill" switches), de manera que los robots puedan ser interrumpidos en caso de emergencias”.
La robótica también implica cuestiones legales sobre seguros contra daños causados por los robots, especialmente en el caso de “automóviles autónomos” y otros elementos más sofisticados de robótica..
Según el artículo de ZDNet, el informe subraya que “si bien los robots están participando cada vez más en nuestra vida diaria – ya existen unos 1,7 millones de robots en el mundo – su uso todavía no está adecuadamente reglamentado. Los robots capaces de autoaprendizage, dice el informe de Mady Delvaux, sugieren la posibilidad de dar a los robots una “personalidad electrónica” (e-personality) semejante a una” personalidad corporativa”, es decir, el estatus legal que permite a las empresas enjuiciar y ser enjuiciadas”.
Con los robots también hay implicados aspectos emocionales; el informe dice que los robots no deberían hacer que la gente sea dependiente de ellos. “Se puede ser dependiente de ellos para tareas físicas, pero no se debería pensar que el robot te ama o siente tu tristeza”, dice Delvaux.
Y, aún más complejo, “también existen implicancias derivadas del posible uso de la inteligencia artificial en la guerra”.
El artículo del ZDNet menciona la existencia de un conjunto de tres leyes para los robots formuladas por Asimov :(Asimov's three laws), las que establecen que:
1. Un robot no debe dañar a un ser humano o, por su inacción, permitir que un ser humano resulte dañado.
2. Un robot debe obedecer las órdenes que le dan  los seres humanos, excepto cuando esas órdenes entran en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia siempre que esa protección no entre en conflicto con la Primera o la Segunda Ley.

(*) http://www.europarl.europa.eu/committees/es/juri/home.html ; Working Group on Robotics and Artificial Intelligence: http://www.europarl.europa.eu/committees/en/juri/subject-files.html;jsessionid=BC99F48A4A420741A24E04FD184C34C6.node2?id=20150504CDT00301


--------------------------------------------------------------

ROBOTS NEED RIGHTS, AND KILL SWITCHES TOO, WARN POLITICIANS (Excerpts from an article By Steve Ranger | January 13, 2017 Topic: CES 2017: The Big Trends for Business, ZDNet Innovation Weekly )
Robots could be given 'electronic person' status, says report, which argues a legal framework is urgently needed for robots and self-driving cars.

This most interesting article mentions that “the European Union needs to set rules for the use of robots, to settle issues around ethics, safety and security”, The European Parliament’s legal affairs committee (*) has pointed out that we could see robots gain a legal status as 'electronic persons'.
The ZDNet’s article mentions that  according to the MEPs “EU-wide rules are needed to exploit the economic potential of robotics. The EU needs a new European agency for robotics and a code of ethical conduct to regulate who would be accountable for the social, environmental and human health impacts of robotics and ensure that they operate in accordance with legal, safety and ethical standards”. The article adds that among other things,” the code should recommend that robot designers include "kill" switches, so that robots can be turned off in emergencies”.
Robotics also implies legal matters about insurance against damages caused by robotics, especially in the case of self driving cars and more sophisticated autonomous robotics.
According to the ZDNet article, the report argues that “while robots are increasingly becoming a part of everyday life -- some 1.7 million robots already exist worldwide -- their use is still not properly regulated. Self-learning robots, said report author Mady Delvaux, suggests the possibility of giving robots a limited "e-personality" something like a "corporate personality", a legal status which enables firms to sue or be sued”.
With robotics there are emotional aspects too; the report says that robots should not make people emotionally dependent on them. “You can be dependent on them for physical tasks, but you should never think that a robot loves you or feels your sadness", Delvaux said.
And, still more intriguing: “ there are also implications derived from the possible use of artificial intelligence in war”.
The ZDNet article mentions that a set of laws for robots has already been formulated: Asimov's three laws, which state:
1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
2. A robot must obey the orders given to it by human beings, except where such orders would conflict with the First Law.
3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

(1) http://www.europarl.europa.eu/committees/es/juri/home.html ; Working Group on Robotics and Artificial Intelligence: http://www.europarl.europa.eu/committees/en/juri/subject-files.html;jsessionid=BC99F48A4A420741A24E04FD184C34C6.node2?id=20150504CDT00301


No hay comentarios:

Publicar un comentario