fbpx
Wikipedia

Tres leyes de la robótica

Las tres leyes de la robótica son un conjunto de normas elaboradas por el escritor de ciencia ficción Isaac Asimov. que se aplican a la mayoría de los robots de sus obras y que están diseñados para cumplir órdenes. Aparecidas por primera vez en el relato «Círculo vicioso» (Runaround) de 1942, establecen lo siguiente:

Primera Ley
Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
Segunda Ley
Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
Tercera Ley
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.[1]

Estas leyes forman un principio organizador y un tema unificador para la ficción basada en robótica de Asimov, que aparece en su serie Robot, las historias vinculadas a ella y su serie Lucky Starr de ficción para adultos jóvenes. En ese universo, las leyes son «formulaciones matemáticas impresas en los senderos positrónicos del cerebro» de los robots (líneas de código del programa que regula el cumplimiento de las leyes guardado en la memoria principal de éstos), y no se pueden eludir, ya que están pensadas como una característica de seguridad.

Las leyes originales han sido modificadas y desarrolladas por Asimov y otros autores. El propio Asimov hizo ligeras modificaciones a los tres primeros en varios libros e historias cortas para desarrollar aún más cómo los robots interactuarían con los humanos y entre ellos. En la ficción posterior donde los robots habían asumido la responsabilidad del gobierno de planetas enteros y civilizaciones humanas, Asimov también agregó una cuarta, o ley cero, para preceder a las demás:

Ley Cero
Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.

Las Tres Leyes y la Ley Cero han impregnado la ciencia ficción y se mencionan en muchos libros, películas y otros medios. También han impactado el pensamiento sobre la ética de la inteligencia artificial.

Propósito

Estas tres leyes surgen únicamente como medida de protección para los seres humanos. Según el propio Asimov, la concepción de las leyes de la robótica quería contrarrestar un supuesto "complejo de Frankenstein", es decir, un temor que el ser humano desarrollaría frente a unas máquinas que hipotéticamente pudieran rebelarse y alzarse contra sus creadores. De intentar siquiera desobedecer una de las leyes, el cerebro positrónico del robot resultaría dañado irreversiblemente y el robot "moriría". A un primer nivel no presenta ningún problema dotar a los robots con tales leyes, a fin de cuentas, son máquinas creadas por el hombre para su ayuda en diversas tareas. La complejidad reside en que el robot pueda distinguir cuáles son todas las situaciones que abarcan las tres leyes, o sea poder deducirlas en el momento. Por ejemplo saber en determinada situación si una persona está corriendo peligro o no, y deducir cuál es la fuente del daño o la solución.

Las tres leyes de la robótica representan el código moral del robot. Un robot va a actuar siempre bajo los imperativos de sus tres leyes. Para todos los efectos, un robot se comportará como un ser moralmente correcto. Sin embargo, es lícito preguntar: ¿Es posible que un robot viole alguna ley? ¿Es posible que un robot "dañe" a un ser humano? La mayor parte de las historias de robots de Asimov se basan en situaciones paradójicas en las que, a pesar de las tres leyes, podríamos responder a las anteriores preguntas con un "sí".

Historia

En El resto de los robots, publicado en 1964, Isaac Asimov señaló que cuando comenzó a escribir en 1940 sintió que "una de las tramas comunes de la ciencia ficción era... los robots fueron creados y destruyeron a su creador. El conocimiento tiene sus peligros, sí, pero ¿la respuesta debe ser un retiro del conocimiento? ¿O el conocimiento debe usarse como una barrera a los peligros que trae? " Decidió que en sus historias un robot no "se volvería estúpidamente contra su creador sin más propósito que demostrar, una vez más, el crimen y el castigo de Fausto".[2]

El 3 de mayo de 1939, Asimov asistió a una reunión de la Sociedad de Ciencia Ficción de Queens (Nueva York) donde conoció a Earl y Otto Binder, quienes habían publicado recientemente un cuento "Yo, Robot" con un simpático robot llamado Adam Link que fue incomprendido y motivado por el amor y el honor. (Esta fue la primera de una serie de diez historias; al año siguiente, "La venganza de Adam Link" (1940) presentó a Adam pensando "Un robot nunca debe matar a un humano, por su propia voluntad").[3]​ Asimov admiró la historia. Tres días después, Asimov comenzó a escribir "mi propia historia de un robot simpático y noble", su decimocuarta historia.[4]​ Trece días después llevó "Robbie" a John W. Campbell, editor de Astounding Science-Fiction. Campbell lo rechazó, alegando que se parecía demasiado a "Helen O'Loy" de Lester del Rey, publicada en diciembre de 1938, la historia de un robot que se parece tanto a una persona que se enamora de su creador. y se convierte en su esposa ideal.[5]Frederik Pohl publicó la historia bajo el título "Strange Playfellow" en Super Science Stories de septiembre de 1940.[6][7]

Asimov atribuye las Tres Leyes a John W. Campbell, de una conversación que tuvo lugar el 23 de diciembre de 1940. Campbell afirmó que Asimov ya tenía las Tres Leyes en su mente y que simplemente necesitaban ser declaradas explícitamente. Varios años más tarde, el amigo de Asimov, Randall Garrett, atribuyó las Leyes a una asociación simbiótica entre los dos hombres, una sugerencia que Asimov adoptó con entusiasmo.[8]​ Según sus escritos autobiográficos, Asimov incluyó la cláusula de "inacción" de la Primera Ley debido al poema de Arthur Hugh Clough "El último decálogo" (texto en Wikisource), que incluye las líneas satíricas "No matarás, pero no tienes que esforzarte por mantenerte vivo".[9]

Aunque Asimov fija la creación de las Tres Leyes en una fecha en particular, su aparición en su literatura ocurrió durante un período. Escribió dos historias de robots sin mención explícita de las Leyes, "Robbie" y "Reason". Sin embargo, asumió que los robots tendrían ciertas salvaguardas inherentes. "¡Embustero!", su tercera historia de robots, menciona por primera vez la Primera Ley, pero no las otras dos. Las tres leyes finalmente aparecieron juntas en "Runaround". Cuando estas historias y varias otras se compilaron en la antología I, Robot, "Reason" y "Robbie" se actualizaron para reconocer las Tres Leyes, aunque el material que Asimov agregó a "Reason" no es del todo consistente con las Tres Leyes como las describió en otra parte.[10]

En su cuento "Evidencia", Asimov deja que su personaje recurrente, la Dra. Susan Calvin, exponga una base moral detrás de las Tres Leyes. Calvin señala que típicamente se espera que los seres humanos se abstengan de dañar a otros seres humanos (excepto en tiempos de extrema coacción como la guerra, o para salvar a un número mayor) y esto es equivalente a la Primera Ley de un robot. Asimismo, según Calvin, la sociedad espera que los individuos obedezcan las instrucciones de autoridades reconocidas como médicos, maestros, etc., lo que equivale a la Segunda Ley de la Robótica. Por último, normalmente se espera que los humanos eviten hacerse daño a sí mismos, que es la Tercera Ley para un robot.

La trama de "Evidencia" gira en torno a la cuestión de diferenciar a un ser humano de un robot construido para parecer humano; Calvin razona que si tal individuo obedece las Tres Leyes, puede ser un robot o simplemente "un hombre muy bueno". Otro personaje le pregunta a Calvin si los robots son muy diferentes de los seres humanos después de todo. Ella responde: "Mundos diferentes. Los robots son esencialmente decentes".

Asimov escribió más tarde que no debería ser elogiado por crear las Leyes, porque son "obvias desde el principio, y todo el mundo las conoce de manera subliminal. Las Leyes nunca se expresaron en frases breves hasta que logré hacer el trabajo. Las Leyes se aplican, por supuesto, a todas las herramientas que utilizan los seres humanos",  y "los análogos de las Leyes están implícitos en el diseño de casi todas las herramientas, robóticas o no":[11]

  1. Ley 1: El uso de una herramienta no debe ser peligroso. Los martillos tienen mangos y los destornilladores tienen empuñaduras para ayudar a aumentar el agarre. Por supuesto, es posible que una persona se lesione con una de estas herramientas, pero esa lesión solo se debe a su incompetencia, no al diseño de la herramienta.
  2. Ley 2: Una herramienta debe realizar su función de manera eficiente a menos que esto perjudique al usuario. Esta es la única razón por la que existen los interruptores de circuito por falla a tierra. Cualquier herramienta en funcionamiento tendrá su corte de energía si un circuito detecta que algo de corriente no está regresando al cable neutro y, por lo tanto, podría estar fluyendo a través del usuario. La seguridad del usuario es primordial.
  3. Ley 3: Una herramienta debe permanecer intacta durante su uso a menos que su destrucción sea necesaria para su uso o por seguridad. Por ejemplo, los discos Dremel están diseñados para ser lo más resistentes posible sin romperse a menos que el trabajo requiera gastarlos. Además, están diseñados para romperse en un punto antes de que la velocidad de la metralla pueda lesionar gravemente a alguien (además de los ojos, aunque de todos modos se deben usar gafas de seguridad en todo momento).

Asimov creía que, idealmente, los humanos también seguirían las Leyes:[12]

Tengo mi respuesta lista cada vez que alguien me pregunta si creo que mis Tres Leyes de la Robótica se usarán realmente para gobernar el comportamiento de los robots, una vez que se vuelvan lo suficientemente versátiles y flexibles como para poder elegir entre diferentes cursos de comportamiento.

Mi respuesta es: "Sí, las Tres Leyes son la única forma en que los seres humanos racionales pueden lidiar con los robots, o con cualquier otra cosa".

—Pero cuando digo eso, siempre recuerdo (tristemente) que los seres humanos no siempre son racionales.

La ley cero

La "ley cero de la robótica" es una variación introducida en las leyes de la robótica que aparece por primera vez en la novela de Isaac Asimov Robots e Imperio (1985). En dicha obra, la ley es elaborada por R. Daneel Olivaw tras una discusión mantenida con el terrícola Elijah Baley en su lecho de muerte.[cita requerida] Posteriormente en la novela, Daneel cita por primera vez la ley con la siguiente formulación[cita requerida]:

Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

derivándose de la denominación "cero" que las otras tres leyes de la robótica quedan subordinadas jerárquicamente a esta nueva ley. Sin embargo, en la propia novela se pone en duda la capacidad de un robot de cumplir con dicha jerarquía cuando R. Giskard Reventlov queda destruido tras incumplir la primera ley tratando de aplicar la ley cero.[cita requerida]

Asimov utilizó la ley cero como nexo entre sus novelas de robots y aquellas pertenecientes a la serie de la Fundación.[cita requerida] El personaje de R. Daneel Olivaw aparece en novelas posteriores como Fundación y Tierra (1986) y Preludio a la Fundación (1988) en el papel de protector secreto y guía de la especie humana en su expansión por la galaxia, así como en el de instigador de la creación tanto del Imperio Galáctico como posteriormente de la psicohistoria. En dichas obras Daneel implica que sus acciones son derivadas de la aplicación de dicha ley cero.[cita requerida]

Aplicaciones a la tecnología futura

 
ASIMO es un robot humanoide avanzado desarrollado por Honda . Mostrado aquí en la Expo 2005.

Los robots y las inteligencias artificiales no contienen ni obedecen inherentemente las Tres Leyes; sus creadores humanos deben programarlos. Se necesitan avances significativos en inteligencia artificial para ello, e incluso si la IA pudiera alcanzar la inteligencia a nivel humano, la complejidad ética inherente, así como la dependencia cultural o contextual de las leyes, les impide ser un buen candidato para formular restricciones de diseño robótico.[13]​ Sin embargo, a medida que ha aumentado la complejidad de los robots, también ha aumentado el interés en desarrollar directrices y salvaguardias para su funcionamiento.[14][15]

En un editorial invitado de 2007 en la revista Science sobre el tema de "Ética de los robots", el autor de ciencia ficción Robert J. Sawyer sostiene que, dado que el ejército de EE. UU. es una fuente importante de financiación para la investigación robótica (y ya utiliza vehículos aéreos no tripulados armados para matar enemigos) es poco probable que tales leyes se incluyan en sus diseños.[16]​ En un ensayo separado, Sawyer generaliza este argumento para cubrir otras industrias que afirman:

El desarrollo de la IA es un negocio, y las empresas son notoriamente desinteresadas en las salvaguardas fundamentales, especialmente las filosóficas. (Algunos ejemplos rápidos: la industria del tabaco, la industria automotriz, la industria nuclear. Ninguno de ellos ha dicho desde el principio que las salvaguardias fundamentales son necesarias, cada uno de ellos ha resistido las salvaguardias impuestas desde el exterior y ninguno ha aceptado un edicto absoluto. en contra de causar daño a los humanos).[17]

David Langford ha sugerido un conjunto de leyes irónico:

  1. Un robot no dañará al personal gubernamental autorizado, pero eliminará a los intrusos con un perjuicio extremo.
  2. Un robot obedecerá las órdenes del personal autorizado, excepto cuando dichas órdenes entren en conflicto con la Tercera Ley.
  3. Un robot protegerá su propia existencia con armamento antipersonal letal, porque un robot es muy caro.

Roger Clarke (también conocido como Rodger Clarke) escribió un par de artículos analizando las complicaciones en la implementación de estas leyes en el caso de que algún día los sistemas fueran capaces de emplearlas. Argumentó que "Las leyes de la robótica de Asimov han sido un dispositivo literario muy exitoso. Quizás irónicamente, o quizás porque era artísticamente apropiado, la suma de las historias de Asimov refuta la afirmación con la que comenzó: No es posible restringir de manera confiable el comportamiento de los robots. ideando y aplicando un conjunto de reglas ".[18]​ Por otro lado, las últimas novelas de Asimov The Robots of Dawn, Robots and Empire y Foundation and Earth implican que los robots infligieron su peor daño a largo plazo al obedecer perfectamente las Tres Leyes, privando así a la humanidad de una conducta inventiva o arriesgada.

En marzo de 2007, el gobierno de Corea del Sur anunció que ese año emitiría una "Carta de ética robótica" que establecería estándares tanto para usuarios como para fabricantes. Según Park Hye-Young del Ministerio de Información y Comunicación, la Carta puede reflejar las Tres Leyes de Asimov, intentando establecer reglas básicas para el futuro desarrollo de la robótica.[19]

El futurista Hans Moravec (una figura prominente en el movimiento transhumanista) propuso que las leyes de la robótica deberían adaptarse a las "inteligencias corporativas", las corporaciones impulsadas por la inteligencia artificial y el poder de fabricación robótica que Moravec cree que surgirán en un futuro próximo.[14]​ En contraste, la novela de David Brin Foundation's Triumph (1999) sugiere que las Tres Leyes pueden caer en obsolescencia: los robots usan la Ley Cero para racionalizar la Primera Ley y los robots se esconden de los seres humanos para que la Segunda Ley nunca llegue. en juego. Brin incluso retrata a R. Daneel Olivaw preocupándose de que, si los robots continúan reproduciéndose, las Tres Leyes se convertirían en una desventaja evolutiva y la selección natural barrería las Leyes, la cuidadosa base de Asimov deshecha por la computación evolutiva. Aunque los robots no evolucionarían a través del diseño en lugar de la mutación porque los robots tendrían que seguir las Tres Leyes al diseñar y se garantizaría la prevalencia de las leyes,[20]​ los defectos de diseño o los errores de construcción podrían reemplazar funcionalmente a la mutación biológica.

En la edición de julio/agosto de 2009 de IEEE Intelligent Systems, Robin Murphy (profesor Raytheon de Ciencias de la Computación e Ingeniería en Texas A&M) y David D. Woods (director del Laboratorio de Ingeniería de Sistemas Cognitivos en el estado de Ohio) propusieron "Las tres leyes de la robótica responsable" como una forma de estimular la discusión sobre el papel de la responsabilidad y la autoridad al diseñar no solo una plataforma robótica única sino el sistema más grande en el que opera la plataforma. Las leyes son las siguientes:

  1. Un ser humano no puede desplegar un robot sin que el sistema de trabajo humano-robot cumpla con los más altos estándares legales y profesionales de seguridad y ética.
  2. Un robot debe responder a los humanos según sea apropiado para sus roles.
  3. Un robot debe estar dotado de suficiente autonomía situada para proteger su propia existencia siempre que dicha protección proporcione una transferencia de control sin problemas que no entre en conflicto con la Primera y Segunda Leyes.[21]

Woods dijo: "Nuestras leyes son un poco más realistas y, por lo tanto, un poco más aburridas" y que "La filosofía ha sido, 'claro, la gente comete errores, pero los robots serán mejores, una versión perfecta de nosotros mismos'. Queríamos escribir tres leyes nuevas para que la gente pensara en la relación humano-robot de formas más realistas y fundamentadas".[21]

En octubre de 2013, Alan Winfield sugirió en una reunión de la EUCog[22]​ 5 leyes revisadas que habían sido publicadas, con comentarios, por el grupo de trabajo EPSRC / AHRC en 2010.:[23]

  1. Los robots son herramientas de usos múltiples. Los robots no deben diseñarse única o principalmente para matar o dañar a humanos, excepto en interés de la seguridad nacional.
  2. Los seres humanos, no los robots, son agentes responsables. Los robots deben diseñarse y operarse en la medida de lo posible para cumplir con las leyes vigentes, los derechos y libertades fundamentales, incluida la privacidad.
  3. Los robots son productos. Deben diseñarse utilizando procesos que garanticen su seguridad y protección.
  4. Los robots son artefactos manufacturados. No deben diseñarse de manera engañosa para explotar a los usuarios vulnerables; en cambio, su naturaleza de máquina debería ser transparente.
  5. Se debe atribuir a la persona con la responsabilidad legal de un robot.

Críticas

El filósofo James H. Moor dice que si se aplica a fondo produciría resultados inesperados. Da el ejemplo de un robot que deambula por el mundo tratando de evitar que los seres humanos sufran daños.[24]

Marc Rotenberg, presidente y director ejecutivo del Electronic Privacy Information Center (EPIC) y profesor de leyes de privacidad de la información en Georgetown Law, sostiene que las leyes de la robótica deberían ampliarse para incluir dos nuevas leyes:

  • una Cuarta Ley, según la cual un Robot debe poder identificarse ante el público ("identificación simétrica")
  • una Quinta Ley, que dicta que un Robot debe poder explicar al público su proceso de toma de decisiones ("transparencia algorítmica").

Véase también

Referencias

  1. Asimov, Isaac (1989). «Círculo vicioso». Los robots. trad. Domingo Santos. Barcelona: Martínez Roca. ISBN 84-270-0906-2. 
  2. Isaac Asimov (1964). «Introduction». The Rest of the Robots. Doubleday. ISBN 978-0-385-09041-4. (requiere registro). 
  3. Gunn, James (July 1980). «On Variations on a Robot». IASFM: 56-81.  Reprinted in James Gunn. (1982). Isaac Asimov: The Foundations of Science Fiction. Oxford u.a.: Oxford Univ. Pr. ISBN 978-0-19-503060-0. 
  4. Asimov, Isaac (1979). In Memory Yet Green. Doubleday. p. 237. ISBN 978-0-380-75432-8. 
  5. Asimov (1979), pp.236–8
  6. Listado de títulos de Three Laws of Robotics en Internet Speculative Fiction Database.
  7. Asimov (1979), p. 263.
  8. Asimov (1979), pp. 285–7.
  9. Asimov, Isaac (1979). In Memory Yet Green. Doubleday. Chapters 21 through 26 ISBN 0-380-75432-0.
  10. Patrouch, Joseph F. (1974). The Science Fiction of Isaac Asimov. Doubleday. p. 42. ISBN 978-0-385-08696-7. 
  11. Asimov, Isaac (12 April 2001). Robot Visions. Gollancz. ISBN 978-1-85798-336-4. 
  12. Compute! Magazine Issue 018. «The Three Laws». 
  13. Murphy, Robin; Woods, David D. (July 2009). «Beyond Asimov: The Three Laws of Responsible Robotics». IEEE Intelligent Systems 24 (4): 14-20. doi:10.1109/mis.2009.69. Consultado el July 2009. 
  14. Moravec, Hans. "The Age of Robots", Extro 1, Proceedings of the First Extropy Institute Conference on TransHumanist Thought (1994) pp. 84–100. June 1993 version available online.
  15. «Rules for the modern robot». New Scientist (2544): 27. 27 March 2006. Consultado el 12 de junio de 2006. 
  16. Sawyer, Robert J. (16 de noviembre de 2007). «Robot Ethics». Science (en inglés) 318 (5853): 1037-1037. ISSN 0036-8075. PMID 18006710. doi:10.1126/science.1151606. Consultado el 23 de febrero de 2021. 
  17. Sawyer, Robert J. (1991). «On Asimov's Three Laws of Robotics». Consultado el 12 de junio de 2006. 
  18. Clarke, Roger. Asimov's laws of robotics: Implications for information technology. Part 1: IEEE Computer, December 1993, p53–61. Part 2: IEEE Computer, Jan 1994, p57–66. Both parts are available without fee at [1]. Under "Enhancements to codes of ethics".
  19. «Robotic age poses ethical dilemma». BBC News. 7 de marzo de 2007. Consultado el 7 de marzo de 2007. 
  20. Brin, David (1999). Foundation's Triumph. HarperCollins. ISBN 978-0-06-105241-5. 
  21. . web.archive.org. 15 de febrero de 2016. Consultado el 23 de febrero de 2021. 
  22. Alan Winfield (30 de octubre de 2013). «Alan Winfield's Web Log: Ethical Robots: some technical and ethical challenges». Alanwinfield.blogspot.co.uk. Consultado el 28 de marzo de 2015. 
  23. «Principles of robotics – EPSRC website». Epsrc.ac.uk. Consultado el 28 de marzo de 2015. 
  24. Four Kinds of Ethical Robots
  •   Datos: Q23758

tres, leyes, robótica, debe, confundirse, leyes, robótica, tres, leyes, robótica, conjunto, normas, elaboradas, escritor, ciencia, ficción, isaac, asimov, aplican, mayoría, robots, obras, están, diseñados, para, cumplir, órdenes, aparecidas, primera, relato, c. No debe confundirse con Leyes de la robotica Las tres leyes de la robotica son un conjunto de normas elaboradas por el escritor de ciencia ficcion Isaac Asimov que se aplican a la mayoria de los robots de sus obras y que estan disenados para cumplir ordenes Aparecidas por primera vez en el relato Circulo vicioso Runaround de 1942 establecen lo siguiente Primera Ley Un robot no hara dano a un ser humano ni por inaccion permitira que un ser humano sufra dano Segunda Ley Un robot debe cumplir las ordenes dadas por los seres humanos a excepcion de aquellas que entren en conflicto con la primera ley Tercera Ley Un robot debe proteger su propia existencia en la medida en que esta proteccion no entre en conflicto con la primera o con la segunda ley 1 Estas leyes forman un principio organizador y un tema unificador para la ficcion basada en robotica de Asimov que aparece en su serie Robot las historias vinculadas a ella y su serie Lucky Starr de ficcion para adultos jovenes En ese universo las leyes son formulaciones matematicas impresas en los senderos positronicos del cerebro de los robots lineas de codigo del programa que regula el cumplimiento de las leyes guardado en la memoria principal de estos y no se pueden eludir ya que estan pensadas como una caracteristica de seguridad Las leyes originales han sido modificadas y desarrolladas por Asimov y otros autores El propio Asimov hizo ligeras modificaciones a los tres primeros en varios libros e historias cortas para desarrollar aun mas como los robots interactuarian con los humanos y entre ellos En la ficcion posterior donde los robots habian asumido la responsabilidad del gobierno de planetas enteros y civilizaciones humanas Asimov tambien agrego una cuarta o ley cero para preceder a las demas Ley Cero Un robot no puede danar a la humanidad o por inaccion permitir que la humanidad sufra danos Las Tres Leyes y la Ley Cero han impregnado la ciencia ficcion y se mencionan en muchos libros peliculas y otros medios Tambien han impactado el pensamiento sobre la etica de la inteligencia artificial Indice 1 Proposito 2 Historia 3 La ley cero 4 Aplicaciones a la tecnologia futura 5 Criticas 6 Vease tambien 7 ReferenciasProposito EditarEstas tres leyes surgen unicamente como medida de proteccion para los seres humanos Segun el propio Asimov la concepcion de las leyes de la robotica queria contrarrestar un supuesto complejo de Frankenstein es decir un temor que el ser humano desarrollaria frente a unas maquinas que hipoteticamente pudieran rebelarse y alzarse contra sus creadores De intentar siquiera desobedecer una de las leyes el cerebro positronico del robot resultaria danado irreversiblemente y el robot moriria A un primer nivel no presenta ningun problema dotar a los robots con tales leyes a fin de cuentas son maquinas creadas por el hombre para su ayuda en diversas tareas La complejidad reside en que el robot pueda distinguir cuales son todas las situaciones que abarcan las tres leyes o sea poder deducirlas en el momento Por ejemplo saber en determinada situacion si una persona esta corriendo peligro o no y deducir cual es la fuente del dano o la solucion Las tres leyes de la robotica representan el codigo moral del robot Un robot va a actuar siempre bajo los imperativos de sus tres leyes Para todos los efectos un robot se comportara como un ser moralmente correcto Sin embargo es licito preguntar Es posible que un robot viole alguna ley Es posible que un robot dane a un ser humano La mayor parte de las historias de robots de Asimov se basan en situaciones paradojicas en las que a pesar de las tres leyes podriamos responder a las anteriores preguntas con un si Historia EditarEn El resto de los robots publicado en 1964 Isaac Asimov senalo que cuando comenzo a escribir en 1940 sintio que una de las tramas comunes de la ciencia ficcion era los robots fueron creados y destruyeron a su creador El conocimiento tiene sus peligros si pero la respuesta debe ser un retiro del conocimiento O el conocimiento debe usarse como una barrera a los peligros que trae Decidio que en sus historias un robot no se volveria estupidamente contra su creador sin mas proposito que demostrar una vez mas el crimen y el castigo de Fausto 2 El 3 de mayo de 1939 Asimov asistio a una reunion de la Sociedad de Ciencia Ficcion de Queens Nueva York donde conocio a Earl y Otto Binder quienes habian publicado recientemente un cuento Yo Robot con un simpatico robot llamado Adam Link que fue incomprendido y motivado por el amor y el honor Esta fue la primera de una serie de diez historias al ano siguiente La venganza de Adam Link 1940 presento a Adam pensando Un robot nunca debe matar a un humano por su propia voluntad 3 Asimov admiro la historia Tres dias despues Asimov comenzo a escribir mi propia historia de un robot simpatico y noble su decimocuarta historia 4 Trece dias despues llevo Robbie a John W Campbell editor de Astounding Science Fiction Campbell lo rechazo alegando que se parecia demasiado a Helen O Loy de Lester del Rey publicada en diciembre de 1938 la historia de un robot que se parece tanto a una persona que se enamora de su creador y se convierte en su esposa ideal 5 Frederik Pohl publico la historia bajo el titulo Strange Playfellow en Super Science Stories de septiembre de 1940 6 7 Asimov atribuye las Tres Leyes a John W Campbell de una conversacion que tuvo lugar el 23 de diciembre de 1940 Campbell afirmo que Asimov ya tenia las Tres Leyes en su mente y que simplemente necesitaban ser declaradas explicitamente Varios anos mas tarde el amigo de Asimov Randall Garrett atribuyo las Leyes a una asociacion simbiotica entre los dos hombres una sugerencia que Asimov adopto con entusiasmo 8 Segun sus escritos autobiograficos Asimov incluyo la clausula de inaccion de la Primera Ley debido al poema de Arthur Hugh Clough El ultimo decalogo texto en Wikisource que incluye las lineas satiricas No mataras pero no tienes que esforzarte por mantenerte vivo 9 Aunque Asimov fija la creacion de las Tres Leyes en una fecha en particular su aparicion en su literatura ocurrio durante un periodo Escribio dos historias de robots sin mencion explicita de las Leyes Robbie y Reason Sin embargo asumio que los robots tendrian ciertas salvaguardas inherentes Embustero su tercera historia de robots menciona por primera vez la Primera Ley pero no las otras dos Las tres leyes finalmente aparecieron juntas en Runaround Cuando estas historias y varias otras se compilaron en la antologia I Robot Reason y Robbie se actualizaron para reconocer las Tres Leyes aunque el material que Asimov agrego a Reason no es del todo consistente con las Tres Leyes como las describio en otra parte 10 En su cuento Evidencia Asimov deja que su personaje recurrente la Dra Susan Calvin exponga una base moral detras de las Tres Leyes Calvin senala que tipicamente se espera que los seres humanos se abstengan de danar a otros seres humanos excepto en tiempos de extrema coaccion como la guerra o para salvar a un numero mayor y esto es equivalente a la Primera Ley de un robot Asimismo segun Calvin la sociedad espera que los individuos obedezcan las instrucciones de autoridades reconocidas como medicos maestros etc lo que equivale a la Segunda Ley de la Robotica Por ultimo normalmente se espera que los humanos eviten hacerse dano a si mismos que es la Tercera Ley para un robot La trama de Evidencia gira en torno a la cuestion de diferenciar a un ser humano de un robot construido para parecer humano Calvin razona que si tal individuo obedece las Tres Leyes puede ser un robot o simplemente un hombre muy bueno Otro personaje le pregunta a Calvin si los robots son muy diferentes de los seres humanos despues de todo Ella responde Mundos diferentes Los robots son esencialmente decentes Asimov escribio mas tarde que no deberia ser elogiado por crear las Leyes porque son obvias desde el principio y todo el mundo las conoce de manera subliminal Las Leyes nunca se expresaron en frases breves hasta que logre hacer el trabajo Las Leyes se aplican por supuesto a todas las herramientas que utilizan los seres humanos y los analogos de las Leyes estan implicitos en el diseno de casi todas las herramientas roboticas o no 11 Ley 1 El uso de una herramienta no debe ser peligroso Los martillos tienen mangos y los destornilladores tienen empunaduras para ayudar a aumentar el agarre Por supuesto es posible que una persona se lesione con una de estas herramientas pero esa lesion solo se debe a su incompetencia no al diseno de la herramienta Ley 2 Una herramienta debe realizar su funcion de manera eficiente a menos que esto perjudique al usuario Esta es la unica razon por la que existen los interruptores de circuito por falla a tierra Cualquier herramienta en funcionamiento tendra su corte de energia si un circuito detecta que algo de corriente no esta regresando al cable neutro y por lo tanto podria estar fluyendo a traves del usuario La seguridad del usuario es primordial Ley 3 Una herramienta debe permanecer intacta durante su uso a menos que su destruccion sea necesaria para su uso o por seguridad Por ejemplo los discos Dremel estan disenados para ser lo mas resistentes posible sin romperse a menos que el trabajo requiera gastarlos Ademas estan disenados para romperse en un punto antes de que la velocidad de la metralla pueda lesionar gravemente a alguien ademas de los ojos aunque de todos modos se deben usar gafas de seguridad en todo momento Asimov creia que idealmente los humanos tambien seguirian las Leyes 12 Tengo mi respuesta lista cada vez que alguien me pregunta si creo que mis Tres Leyes de la Robotica se usaran realmente para gobernar el comportamiento de los robots una vez que se vuelvan lo suficientemente versatiles y flexibles como para poder elegir entre diferentes cursos de comportamiento Mi respuesta es Si las Tres Leyes son la unica forma en que los seres humanos racionales pueden lidiar con los robots o con cualquier otra cosa Pero cuando digo eso siempre recuerdo tristemente que los seres humanos no siempre son racionales La ley cero EditarLa ley cero de la robotica es una variacion introducida en las leyes de la robotica que aparece por primera vez en la novela de Isaac Asimov Robots e Imperio 1985 En dicha obra la ley es elaborada por R Daneel Olivaw tras una discusion mantenida con el terricola Elijah Baley en su lecho de muerte cita requerida Posteriormente en la novela Daneel cita por primera vez la ley con la siguiente formulacion cita requerida Un robot no hara dano a la Humanidad o por inaccion permitir que la Humanidad sufra dano derivandose de la denominacion cero que las otras tres leyes de la robotica quedan subordinadas jerarquicamente a esta nueva ley Sin embargo en la propia novela se pone en duda la capacidad de un robot de cumplir con dicha jerarquia cuando R Giskard Reventlov queda destruido tras incumplir la primera ley tratando de aplicar la ley cero cita requerida Asimov utilizo la ley cero como nexo entre sus novelas de robots y aquellas pertenecientes a la serie de la Fundacion cita requerida El personaje de R Daneel Olivaw aparece en novelas posteriores como Fundacion y Tierra 1986 y Preludio a la Fundacion 1988 en el papel de protector secreto y guia de la especie humana en su expansion por la galaxia asi como en el de instigador de la creacion tanto del Imperio Galactico como posteriormente de la psicohistoria En dichas obras Daneel implica que sus acciones son derivadas de la aplicacion de dicha ley cero cita requerida Aplicaciones a la tecnologia futura EditarVeanse tambien Etica en la inteligencia artificiale Inteligencia artificial amigable ASIMO es un robot humanoide avanzado desarrollado por Honda Mostrado aqui en la Expo 2005 Los robots y las inteligencias artificiales no contienen ni obedecen inherentemente las Tres Leyes sus creadores humanos deben programarlos Se necesitan avances significativos en inteligencia artificial para ello e incluso si la IA pudiera alcanzar la inteligencia a nivel humano la complejidad etica inherente asi como la dependencia cultural o contextual de las leyes les impide ser un buen candidato para formular restricciones de diseno robotico 13 Sin embargo a medida que ha aumentado la complejidad de los robots tambien ha aumentado el interes en desarrollar directrices y salvaguardias para su funcionamiento 14 15 En un editorial invitado de 2007 en la revista Science sobre el tema de Etica de los robots el autor de ciencia ficcion Robert J Sawyer sostiene que dado que el ejercito de EE UU es una fuente importante de financiacion para la investigacion robotica y ya utiliza vehiculos aereos no tripulados armados para matar enemigos es poco probable que tales leyes se incluyan en sus disenos 16 En un ensayo separado Sawyer generaliza este argumento para cubrir otras industrias que afirman El desarrollo de la IA es un negocio y las empresas son notoriamente desinteresadas en las salvaguardas fundamentales especialmente las filosoficas Algunos ejemplos rapidos la industria del tabaco la industria automotriz la industria nuclear Ninguno de ellos ha dicho desde el principio que las salvaguardias fundamentales son necesarias cada uno de ellos ha resistido las salvaguardias impuestas desde el exterior y ninguno ha aceptado un edicto absoluto en contra de causar dano a los humanos 17 David Langford ha sugerido un conjunto de leyes ironico Un robot no danara al personal gubernamental autorizado pero eliminara a los intrusos con un perjuicio extremo Un robot obedecera las ordenes del personal autorizado excepto cuando dichas ordenes entren en conflicto con la Tercera Ley Un robot protegera su propia existencia con armamento antipersonal letal porque un robot es muy caro Roger Clarke tambien conocido como Rodger Clarke escribio un par de articulos analizando las complicaciones en la implementacion de estas leyes en el caso de que algun dia los sistemas fueran capaces de emplearlas Argumento que Las leyes de la robotica de Asimov han sido un dispositivo literario muy exitoso Quizas ironicamente o quizas porque era artisticamente apropiado la suma de las historias de Asimov refuta la afirmacion con la que comenzo No es posible restringir de manera confiable el comportamiento de los robots ideando y aplicando un conjunto de reglas 18 Por otro lado las ultimas novelas de Asimov The Robots of Dawn Robots and Empire y Foundation and Earth implican que los robots infligieron su peor dano a largo plazo al obedecer perfectamente las Tres Leyes privando asi a la humanidad de una conducta inventiva o arriesgada En marzo de 2007 el gobierno de Corea del Sur anuncio que ese ano emitiria una Carta de etica robotica que estableceria estandares tanto para usuarios como para fabricantes Segun Park Hye Young del Ministerio de Informacion y Comunicacion la Carta puede reflejar las Tres Leyes de Asimov intentando establecer reglas basicas para el futuro desarrollo de la robotica 19 El futurista Hans Moravec una figura prominente en el movimiento transhumanista propuso que las leyes de la robotica deberian adaptarse a las inteligencias corporativas las corporaciones impulsadas por la inteligencia artificial y el poder de fabricacion robotica que Moravec cree que surgiran en un futuro proximo 14 En contraste la novela de David Brin Foundation s Triumph 1999 sugiere que las Tres Leyes pueden caer en obsolescencia los robots usan la Ley Cero para racionalizar la Primera Ley y los robots se esconden de los seres humanos para que la Segunda Ley nunca llegue en juego Brin incluso retrata a R Daneel Olivaw preocupandose de que si los robots continuan reproduciendose las Tres Leyes se convertirian en una desventaja evolutiva y la seleccion natural barreria las Leyes la cuidadosa base de Asimov deshecha por la computacion evolutiva Aunque los robots no evolucionarian a traves del diseno en lugar de la mutacion porque los robots tendrian que seguir las Tres Leyes al disenar y se garantizaria la prevalencia de las leyes 20 los defectos de diseno o los errores de construccion podrian reemplazar funcionalmente a la mutacion biologica En la edicion de julio agosto de 2009 de IEEE Intelligent Systems Robin Murphy profesor Raytheon de Ciencias de la Computacion e Ingenieria en Texas A amp M y David D Woods director del Laboratorio de Ingenieria de Sistemas Cognitivos en el estado de Ohio propusieron Las tres leyes de la robotica responsable como una forma de estimular la discusion sobre el papel de la responsabilidad y la autoridad al disenar no solo una plataforma robotica unica sino el sistema mas grande en el que opera la plataforma Las leyes son las siguientes Un ser humano no puede desplegar un robot sin que el sistema de trabajo humano robot cumpla con los mas altos estandares legales y profesionales de seguridad y etica Un robot debe responder a los humanos segun sea apropiado para sus roles Un robot debe estar dotado de suficiente autonomia situada para proteger su propia existencia siempre que dicha proteccion proporcione una transferencia de control sin problemas que no entre en conflicto con la Primera y Segunda Leyes 21 Woods dijo Nuestras leyes son un poco mas realistas y por lo tanto un poco mas aburridas y que La filosofia ha sido claro la gente comete errores pero los robots seran mejores una version perfecta de nosotros mismos Queriamos escribir tres leyes nuevas para que la gente pensara en la relacion humano robot de formas mas realistas y fundamentadas 21 En octubre de 2013 Alan Winfield sugirio en una reunion de la EUCog 22 5 leyes revisadas que habian sido publicadas con comentarios por el grupo de trabajo EPSRC AHRC en 2010 23 Los robots son herramientas de usos multiples Los robots no deben disenarse unica o principalmente para matar o danar a humanos excepto en interes de la seguridad nacional Los seres humanos no los robots son agentes responsables Los robots deben disenarse y operarse en la medida de lo posible para cumplir con las leyes vigentes los derechos y libertades fundamentales incluida la privacidad Los robots son productos Deben disenarse utilizando procesos que garanticen su seguridad y proteccion Los robots son artefactos manufacturados No deben disenarse de manera enganosa para explotar a los usuarios vulnerables en cambio su naturaleza de maquina deberia ser transparente Se debe atribuir a la persona con la responsabilidad legal de un robot Criticas EditarEl filosofo James H Moor dice que si se aplica a fondo produciria resultados inesperados Da el ejemplo de un robot que deambula por el mundo tratando de evitar que los seres humanos sufran danos 24 Marc Rotenberg presidente y director ejecutivo del Electronic Privacy Information Center EPIC y profesor de leyes de privacidad de la informacion en Georgetown Law sostiene que las leyes de la robotica deberian ampliarse para incluir dos nuevas leyes una Cuarta Ley segun la cual un Robot debe poder identificarse ante el publico identificacion simetrica una Quinta Ley que dicta que un Robot debe poder explicar al publico su proceso de toma de decisiones transparencia algoritmica Vease tambien EditarLeyes de la robotica Leyes de Clarke Leyes de Niven Yo robot Yo robot pelicula Robot Robot militar Roboetica La apuesta transhumanistaReferencias Editar Asimov Isaac 1989 Circulo vicioso Los robots trad Domingo Santos Barcelona Martinez Roca ISBN 84 270 0906 2 Isaac Asimov 1964 Introduction The Rest of the Robots Doubleday ISBN 978 0 385 09041 4 requiere registro Gunn James July 1980 On Variations on a Robot IASFM 56 81 Reprinted in James Gunn 1982 Isaac Asimov The Foundations of Science Fiction Oxford u a Oxford Univ Pr ISBN 978 0 19 503060 0 Asimov Isaac 1979 In Memory Yet Green Doubleday p 237 ISBN 978 0 380 75432 8 Asimov 1979 pp 236 8 Listado de titulos de Three Laws of Robotics en Internet Speculative Fiction Database Asimov 1979 p 263 Asimov 1979 pp 285 7 Asimov Isaac 1979 In Memory Yet Green Doubleday Chapters 21 through 26 ISBN 0 380 75432 0 Patrouch Joseph F 1974 The Science Fiction of Isaac Asimov Doubleday p 42 ISBN 978 0 385 08696 7 Asimov Isaac 12 April 2001 Robot Visions Gollancz ISBN 978 1 85798 336 4 Compute Magazine Issue 018 The Three Laws Murphy Robin Woods David D July 2009 Beyond Asimov The Three Laws of Responsible Robotics IEEE Intelligent Systems 24 4 14 20 doi 10 1109 mis 2009 69 Consultado el July 2009 a b Moravec Hans The Age of Robots Extro 1 Proceedings of the First Extropy Institute Conference on TransHumanist Thought 1994 pp 84 100 June 1993 version available online Rules for the modern robot New Scientist 2544 27 27 March 2006 Consultado el 12 de junio de 2006 Sawyer Robert J 16 de noviembre de 2007 Robot Ethics Science en ingles 318 5853 1037 1037 ISSN 0036 8075 PMID 18006710 doi 10 1126 science 1151606 Consultado el 23 de febrero de 2021 Sawyer Robert J 1991 On Asimov s Three Laws of Robotics Consultado el 12 de junio de 2006 Clarke Roger Asimov s laws of robotics Implications for information technology Part 1 IEEE Computer December 1993 p53 61 Part 2 IEEE Computer Jan 1994 p57 66 Both parts are available without fee at 1 Under Enhancements to codes of ethics Robotic age poses ethical dilemma BBC News 7 de marzo de 2007 Consultado el 7 de marzo de 2007 Brin David 1999 Foundation s Triumph HarperCollins ISBN 978 0 06 105241 5 a b Want Responsible Robotics Start With Responsible Humans web archive org 15 de febrero de 2016 Consultado el 23 de febrero de 2021 Alan Winfield 30 de octubre de 2013 Alan Winfield s Web Log Ethical Robots some technical and ethical challenges Alanwinfield blogspot co uk Consultado el 28 de marzo de 2015 Principles of robotics EPSRC website Epsrc ac uk Consultado el 28 de marzo de 2015 Four Kinds of Ethical Robots Datos Q23758Obtenido de https es wikipedia org w index php title Tres leyes de la robotica amp oldid 136940651, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos