fbpx
Wikipedia

Leyes de la robótica

Las leyes de la robótica son un conjunto de leyes, reglas o principios, que están pensados ​​como un marco fundamental para sustentar el comportamiento de los robots diseñados para tener cierto grado de autonomía. Los robots de este grado de complejidad aún no existen, pero han sido ampliamente anticipados en la ciencia ficción, las películas, y son un tema de investigación y desarrollo activo en los campos de la robótica y la inteligencia artificial.

"Tres leyes de la robótica" de Isaac Asimov

El conjunto de leyes más conocido son las "Tres leyes de la robótica" de Isaac Asimov. Estos fueron introducidos en su cuento de 1942 "Runaround", aunque fueron presagiados en algunas historias anteriores. Las tres leyes son:

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
  2. Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.[1]

En The Evitable Conflict, las máquinas generalizan la Primera Ley para significar:

  1. "Ninguna máquina puede dañar a la humanidad; o, por inacción, permitir que la humanidad sufra daños".

Esto se refinó al final de Fundación y Tierra, se introdujo una ley cero, con las tres originales reescritas adecuadamente como subordinadas a ella:

0. Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.

Existen adaptaciones y extensiones basadas en este marco. A partir de 2011 siguen siendo un "dispositivo ficticio".[2]

Principios de robótica de EPSRC / AHRC

En 2011, el Consejo de Investigación de Ingeniería y Ciencias Físicas (EPSRC) y el Consejo de Investigación de Artes y Humanidades (AHRC) del Reino Unido publicaron conjuntamente un conjunto de cinco "principios éticos para diseñadores, constructores y usuarios de robots" en el mundo real, junto con siete "mensajes de alto nivel" destinados a ser transmitidos, basados ​​en un taller de investigación de septiembre de 2010:[2][3][4]

  1. Los robots no deben diseñarse única o principalmente para matar o dañar a los seres humanos.
  2. Los seres humanos, no los robots, son agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
  3. Los robots deben diseñarse de manera que garanticen su seguridad y protección.
  4. Los robots son artefactos; no deben diseñarse para explotar a los usuarios vulnerables provocando una respuesta emocional o dependencia. Siempre debería ser posible distinguir un robot de un humano.
  5. Siempre debería ser posible averiguar quién es legalmente responsable de un robot.

Los mensajes que se pretendían transmitir eran:

  1. Creemos que los robots tienen el potencial de proporcionar un inmenso impacto positivo a la sociedad. Queremos fomentar la investigación robótica responsable.
  2. La mala práctica nos lastima a todos.
  3. Abordar las preocupaciones públicas obvias nos ayudará a todos a progresar.
  4. Es importante demostrar que nosotros, como especialistas en robótica, estamos comprometidos con los mejores estándares de práctica posibles.
  5. Para comprender el contexto y las consecuencias de nuestra investigación, debemos trabajar con expertos de otras disciplinas, que incluyen: ciencias sociales, derecho, filosofía y artes.
  6. Debemos considerar la ética de la transparencia: ¿hay límites para lo que debería estar disponible abiertamente?
  7. Cuando vemos relatos erróneos en la prensa, nos comprometemos a tomarnos el tiempo para contactar a los periodistas que informan.

Los principios de EPSRC son ampliamente reconocidos como un punto de partida útil. En 2016 Tony Prescott organizó un taller para revisar estos principios, por ejemplo, para diferenciar los principios éticos de los legales.[5]

Leyes de Satya Nadella

En junio de 2016, Satya Nadella, CEO de Microsoft, tuvo una entrevista con la revista Slate y bosquejó aproximadamente cinco reglas para que las inteligencias artificiales sean observadas por sus diseñadores:[6][7]

  1. "La IA debe estar diseñada para ayudar a la humanidad", lo que significa que se debe respetar la autonomía humana.
  2. "La IA debe ser transparente", lo que significa que los humanos deben saber y ser capaces de comprender cómo funcionan.
  3. "La IA debe maximizar la eficiencia sin destruir la dignidad de las personas".
  4. "La IA debe estar diseñada para una privacidad inteligente", lo que significa que se gana la confianza al proteger su información.
  5. "La IA debe tener una responsabilidad algorítmica para que los humanos puedan deshacer un daño involuntario".
  6. "La IA debe protegerse de los prejuicios" para no discriminar a las personas.

"Leyes de la robótica" de Tilden

Mark W. Tilden es un físico robótico que fue pionero en el desarrollo de robótica simple.[8]​ Sus tres principios / reglas rectores para los robots son:[8][9][10]

  1. Un robot debe proteger su existencia a toda costa.
  2. Un robot debe obtener y mantener el acceso a su propia fuente de energía.
  3. Un robot debe buscar continuamente mejores fuentes de energía.

Lo que es notable en estas tres reglas es que son básicamente reglas para la vida "salvaje", por lo que, en esencia, lo que Tilden declaró es que lo que quería era "proteger una especie de silicio en la sensibilidad, pero con control total sobre las especificaciones. No vegetal. No animal. Algo más."[11]

Desarrollo judicial

Ya se ha iniciado otra codificación terminológica integral para la evaluación jurídica de los avances tecnológicos en la industria de la robótica, principalmente en los países asiáticos.[12]​ Este progreso representa una reinterpretación contemporánea del derecho (y la ética) en el campo de la robótica, una interpretación que asume un replanteamiento de las constelaciones legales tradicionales. Estos incluyen principalmente cuestiones de responsabilidad legal en el derecho civil y penal.

Véase también

Referencias

  1. Asimov, Isaac (1950). I, Robot. 
  2. Stewart, Jon (3 de octubre de 2011). «Ready for the robot revolution?». BBC News. Consultado el 3 de octubre de 2011. 
  3. «Principles of robotics: Regulating Robots in the Real World». Engineering and Physical Sciences Research Council. Consultado el 3 de octubre de 2011. 
  4. Winfield, Alan. «Five roboethical principles – for humans». New Scientist. Consultado el 3 de octubre de 2011. 
  5. Müller, Vincent C. (2017). «Legal vs. ethical obligations – a comment on the EPSRC’s principles for robotics». Connection Science. doi:10.1080/09540091.2016.1276516. 
  6. Nadella, Satya (28 de junio de 2016). «The Partnership of the Future». Slate. ISSN 1091-2339. Consultado el 30 de junio de 2016. 
  7. Vincent, James (29 de junio de 2016). «Satya Nadella's rules for AI are more boring (and relevant) than Asimov's Three Laws». The Verge. Vox Media. Consultado el 30 de junio de 2016. 
  8. Hapgood, Fred (September 1994). «Chaotic Robotics». Wired (2.09). 
  9. Ashley Dunn. "Machine Intelligence, Part II: From Bumper Cars to Electronic Minds" The New York Times 5 June 1996. Retrieved 26 July 2009.
  10. makezine.com: A Beginner's Guide to BEAM (Most of the article is subscription-only content.)
  11. Hapgood, Fred (September 1994). «Chaotic Robotics (continued)». Wired (2.09). 
  12. bcc.co.uk: Robot age poses ethical dilemma. Link

leyes, robótica, debe, confundirse, tres, leyes, robótica, leyes, robótica, conjunto, leyes, reglas, principios, están, pensados, como, marco, fundamental, para, sustentar, comportamiento, robots, diseñados, para, tener, cierto, grado, autonomía, robots, este,. No debe confundirse con Tres leyes de la robotica Las leyes de la robotica son un conjunto de leyes reglas o principios que estan pensados como un marco fundamental para sustentar el comportamiento de los robots disenados para tener cierto grado de autonomia Los robots de este grado de complejidad aun no existen pero han sido ampliamente anticipados en la ciencia ficcion las peliculas y son un tema de investigacion y desarrollo activo en los campos de la robotica y la inteligencia artificial Indice 1 Tres leyes de la robotica de Isaac Asimov 2 Principios de robotica de EPSRC AHRC 3 Leyes de Satya Nadella 4 Leyes de la robotica de Tilden 5 Desarrollo judicial 6 Vease tambien 7 Referencias Tres leyes de la robotica de Isaac Asimov EditarArticulo principal Tres leyes de la robotica El conjunto de leyes mas conocido son las Tres leyes de la robotica de Isaac Asimov Estos fueron introducidos en su cuento de 1942 Runaround aunque fueron presagiados en algunas historias anteriores Las tres leyes son Un robot no puede danar a un ser humano o por inaccion permitir que un ser humano sufra danos Un robot debe obedecer las ordenes que le den los seres humanos excepto cuando tales ordenes entren en conflicto con la Primera Ley Un robot debe proteger su propia existencia siempre que dicha proteccion no entre en conflicto con la Primera o Segunda Ley 1 En The Evitable Conflict las maquinas generalizan la Primera Ley para significar Ninguna maquina puede danar a la humanidad o por inaccion permitir que la humanidad sufra danos Esto se refino al final de Fundacion y Tierra se introdujo una ley cero con las tres originales reescritas adecuadamente como subordinadas a ella 0 Un robot no puede danar a la humanidad o por inaccion permitir que la humanidad sufra danos Existen adaptaciones y extensiones basadas en este marco A partir de 2011 siguen siendo un dispositivo ficticio 2 Principios de robotica de EPSRC AHRC EditarEn 2011 el Consejo de Investigacion de Ingenieria y Ciencias Fisicas EPSRC y el Consejo de Investigacion de Artes y Humanidades AHRC del Reino Unido publicaron conjuntamente un conjunto de cinco principios eticos para disenadores constructores y usuarios de robots en el mundo real junto con siete mensajes de alto nivel destinados a ser transmitidos basados en un taller de investigacion de septiembre de 2010 2 3 4 Los robots no deben disenarse unica o principalmente para matar o danar a los seres humanos Los seres humanos no los robots son agentes responsables Los robots son herramientas disenadas para lograr los objetivos humanos Los robots deben disenarse de manera que garanticen su seguridad y proteccion Los robots son artefactos no deben disenarse para explotar a los usuarios vulnerables provocando una respuesta emocional o dependencia Siempre deberia ser posible distinguir un robot de un humano Siempre deberia ser posible averiguar quien es legalmente responsable de un robot Los mensajes que se pretendian transmitir eran Creemos que los robots tienen el potencial de proporcionar un inmenso impacto positivo a la sociedad Queremos fomentar la investigacion robotica responsable La mala practica nos lastima a todos Abordar las preocupaciones publicas obvias nos ayudara a todos a progresar Es importante demostrar que nosotros como especialistas en robotica estamos comprometidos con los mejores estandares de practica posibles Para comprender el contexto y las consecuencias de nuestra investigacion debemos trabajar con expertos de otras disciplinas que incluyen ciencias sociales derecho filosofia y artes Debemos considerar la etica de la transparencia hay limites para lo que deberia estar disponible abiertamente Cuando vemos relatos erroneos en la prensa nos comprometemos a tomarnos el tiempo para contactar a los periodistas que informan Los principios de EPSRC son ampliamente reconocidos como un punto de partida util En 2016 Tony Prescott organizo un taller para revisar estos principios por ejemplo para diferenciar los principios eticos de los legales 5 Leyes de Satya Nadella EditarEn junio de 2016 Satya Nadella CEO de Microsoft tuvo una entrevista con la revista Slate y bosquejo aproximadamente cinco reglas para que las inteligencias artificiales sean observadas por sus disenadores 6 7 La IA debe estar disenada para ayudar a la humanidad lo que significa que se debe respetar la autonomia humana La IA debe ser transparente lo que significa que los humanos deben saber y ser capaces de comprender como funcionan La IA debe maximizar la eficiencia sin destruir la dignidad de las personas La IA debe estar disenada para una privacidad inteligente lo que significa que se gana la confianza al proteger su informacion La IA debe tener una responsabilidad algoritmica para que los humanos puedan deshacer un dano involuntario La IA debe protegerse de los prejuicios para no discriminar a las personas Leyes de la robotica de Tilden EditarMark W Tilden es un fisico robotico que fue pionero en el desarrollo de robotica simple 8 Sus tres principios reglas rectores para los robots son 8 9 10 Un robot debe proteger su existencia a toda costa Un robot debe obtener y mantener el acceso a su propia fuente de energia Un robot debe buscar continuamente mejores fuentes de energia Lo que es notable en estas tres reglas es que son basicamente reglas para la vida salvaje por lo que en esencia lo que Tilden declaro es que lo que queria era proteger una especie de silicio en la sensibilidad pero con control total sobre las especificaciones No vegetal No animal Algo mas 11 Desarrollo judicial EditarYa se ha iniciado otra codificacion terminologica integral para la evaluacion juridica de los avances tecnologicos en la industria de la robotica principalmente en los paises asiaticos 12 Este progreso representa una reinterpretacion contemporanea del derecho y la etica en el campo de la robotica una interpretacion que asume un replanteamiento de las constelaciones legales tradicionales Estos incluyen principalmente cuestiones de responsabilidad legal en el derecho civil y penal Vease tambien EditarTres leyes de la robotica Leyes de Clarke Leyes de Niven Etica de la inteligencia artificial Inteligencia artificial amigable Robot militar Roboetica Transhumanismo La apuesta transhumanistaReferencias Editar Asimov Isaac 1950 I Robot a b Stewart Jon 3 de octubre de 2011 Ready for the robot revolution BBC News Consultado el 3 de octubre de 2011 Principles of robotics Regulating Robots in the Real World Engineering and Physical Sciences Research Council Consultado el 3 de octubre de 2011 Winfield Alan Five roboethical principles for humans New Scientist Consultado el 3 de octubre de 2011 Muller Vincent C 2017 Legal vs ethical obligations a comment on the EPSRC s principles for robotics Connection Science doi 10 1080 09540091 2016 1276516 Nadella Satya 28 de junio de 2016 The Partnership of the Future Slate ISSN 1091 2339 Consultado el 30 de junio de 2016 Vincent James 29 de junio de 2016 Satya Nadella s rules for AI are more boring and relevant than Asimov s Three Laws The Verge Vox Media Consultado el 30 de junio de 2016 a b Hapgood Fred September 1994 Chaotic Robotics Wired 2 09 Ashley Dunn Machine Intelligence Part II From Bumper Cars to Electronic Minds The New York Times 5 June 1996 Retrieved 26 July 2009 makezine com A Beginner s Guide to BEAM Most of the article is subscription only content Hapgood Fred September 1994 Chaotic Robotics continued Wired 2 09 bcc co uk Robot age poses ethical dilemma LinkObtenido de https es wikipedia org w index php title Leyes de la robotica amp oldid 135489275, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos