fbpx
Wikipedia

Ética de las máquinas

La ética de las máquinas (o moral de las máquinas) es la parte de la ética de la inteligencia artificial que trata el comportamiento moral de los seres con inteligencia artificial.[1]​ La ética de las máquinas contrasta con la roboética, que se enfoca al comportamiento moral de los humanos mientras diseñan, construyen, usan y tratan a los seres con inteligencia artificial. La ética de las máquinas no debe ser confundida con la ética computacional, la cual se enfoca en el comportamiento profesional en el uso de las computadoras y la información.

Historia

Antes del siglo 21, la ética de las máquinas no había sido tomada en cuenta fuera de la literatura, debido principalmente a la computación y las limitaciones de la inteligencia artificial. Estas limitaciones están siendo superadas a través de la ley de Moore y un enfoque renovado en el campo de la inteligencia artificial. La ética de las máquinas se ha vuelto un campo realista desde que las computadoras comenzaron a manejar transacciones médicas y monetarias. El profesor James H. Moor está acreditado por haber acuñado la frase en su paper del 2006 La naturaleza, importancia y dificultad de la ética de las máquinas, así como por la definición.< el cual se anuncia como “el primer libro en examinar el reto de construir agentes morales artificiales, entrando profundamente en la naturaleza humana de la toma de decisiones y la ética.” Se citaron unas 450 fuentes, de las cuales, alrededor de 100 abordaron las principales preguntas sobre la ética de las máquinas. Pocas fueron escritas antes del siglo 21, principalmente porque cualquier forma de inteligencia artificial era inexistente.[2]

En 2011, Cambridge University Press publicó una colección de ensayos sobre la ética de las máquinas, editado por Michael y Susan Leigh Anderson,[3]​ quienes también editaron un número especial sobre el tema en la IEEE Sistemas Inteligentes en 2006.[4]

En 2014, la Oficina de Investigación Naval estadounidense anunció que distribuiría $ 7.5 millones en convenciones por cinco años a investigadores universitarios para estudiar cuestiones de la ética de las máquinas aplicadas a robots autónomos[5]​ y Nick Bostrom en su libro La superinteligencia: caminos, peligros, estrategias,elevó la ética de las máquinas como “el más importante… problema que ha enfrentado la humanidad”, además alcanzó el lugar #17 en la lista de los libros de ciencia ficción mejor vendidos del New York Times.[6]

Artículos sobre la ética de las máquinas aparecen regularmente en la revista Ética y Tecnologías de la Información.[7]

Alcance

Moor distingue entre:[1]

  • Agentes de impacto ético, definido como las máquinas que conllevan un impacto ético.
  • Agentes éticos implícitos, acciones restringidas para evitar resultados no éticos.
  • Agentes éticos explícitos, donde la máquina aplica la ética de la misma manera que una computadora que juega ajedrez.
  • Agentes totalmente éticos, permitiendo que los tres agentes anteriores deriven de la ética de sus desarrolladores

Enfoque

Urgencia

En 2009, académicos y técnicos expertos asistieron a una conferencia para discutir sobre el impacto potencial de que las computadoras y robots, hipotéticamente, se vuelvan autosuficientes y capaces de tomar sus propias decisiones. Discutieron sobre la posibilidad y el nivel en el que las computadoras y robots sean capaces de adquirir un nivel de autonomía y a qué grado podrían utilizar dicha habilidad para significar un posible riesgo o amenaza. Notaron que algunas máquinas han adquirido distintas formas de semiautonomía, incluso siendo capaces de encontrar fuentes de energía y de elegir de manera independiente objetivos para atacar con armas. También encontraron que algunos virus de computadora son capaces de evadir el proceso de eliminación y han alcanzado una "inteligencia de cucaracha." Además señalaron que la autoconciencia, como se muestra en la ciencia ficción es muy poco probable, pero que existen otros riesgos y peligros potenciales.[8]

Algunos expertos y académicos han cuestionado el uso de robots para combate militar, especialmente cuando a estos robots se les da un grado de funciones autónomas.[9]​ La Armada de los Estados Unidos ha financiado un reporte en el que se señala que mientras más complejos se vuelvan los robots militares, debe de haber una mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas.[10][11]​ El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio para examinar esta cuestión.[12]​ Se enfocan hacia programas como el dispositivo de adquisición del lenguaje, que puede emular la interacción humana.

Algoritmos

Nick Bostrom y Eliezer Yudkowsky han argumentado a favor de los árboles de decisión (como el ID3) por encima de las redes neuronales y algoritmos genéticos, con la base de que los árboles de decisión obedecen a normas sociales modernas de transparencia y previsibilidad (por ejemplo, stare decisis),[13]​ mientras que Chris Santos-Lang alega en la dirección opuesta, con la justificación de que se debe permitir cambiar las normas de cualquier época y que el fallo natural satisfaga estas normas, lo cual ha sido esencial en hacer a los humanos menos vulnerables que las máquinas ante los "hackers".[14][15]

Entrenamiento e instrucción

En 2009, durante un experimento en el Laboratorio de Sistemas Inteligentes en la Escuela Politécnica Federal de Lausana, en Suiza, robots que fueron programados para cooperar entre sí en la búsqueda de un recurso beneficioso y evitando uno dañino, eventualmente aprendieron a mentir entre ellos, con el fin de obtener el recurso que buscaban.[16]


Un problema en este caso puede haber sido que los objetivos eran terminales (es decir, en comparación, los motivos humanos tienen una calidad de que requieren un aprendizaje continuo). Los robots fueron agrupados en clanes y se utilizó el código genético digital de los miembros exitosos para la próxima generación. Después de 50 generaciones sucesivas, un miembro de los clanes descubrió cómo indicar la comida en vez del veneno. Además, hubo robots que señalaban el peligro y morían por salvar a otros. Estas adaptaciones pueden haber sido el resultado del código genético de sus creadores humanos.[14]

Implicaciones éticas

En Moral Machines: Teaching Robots Right from Wrong, Wendell Wallach y Colin Allen concluyen que los intentos de enseñar a los robots la diferencia entre el bien y el mal, nos ayudará a avanzar en el entendimiento de la ética humana, motivando a los humanos para acortar la brecha en la teoría normativa moderna y brindando una plataforma para la investigación experimental.[2]

Aproximaciones

Se han hecho varios intentos para hacer la ética, computable o al menos formal. Mientras que las tres leyes de la robótica de Isaac Asimov, usualmente no son consideradas como adecuadas para funcionar como agente moral artificial,[17]​ además, se ha estudiado que el imperativo categórico de Kant sí puede ser utilizado.[18]​ Sin embargo, se ha señalado que los valores humanos son muy complejos en algunos aspectos.[19]​ Una manera de superar esta dificultad es recibir los valores directamente de las personas a través de un mecanismo, por ejemplo, aprendiéndolos.[20][21][22]
Otro enfoque es basar las consideraciones éticas actuales en situaciones similares pasadas. A esto se le llama casuística y puede implementarse a través de la investigación en Internet. El consenso de millones puede llevar a una decisión que depende de la democracia.[23]

Un experimento mental se centra en Genie Golem, con poderes ilimitados y se presenta él mismo ante el lector. Genie afirma que volverá en 50 años y exige que se le entregue un conjunto definido de valores morales. El propósito de este experimento es iniciar un discurso sobre la mejor la manera de definir la ética para que sea entendible para las computadoras.[24]

La ética de las máquinas en la ficción

En 1950, Isaac Asimov trató el asunto en su libro Yo, Robot. Ante la insistencia de su editor John W. Campbell Jr., propuso las tres leyes de la robótica para regir los sistemas de inteligencia artificial. Gran parte de su trabajo se dedicó entonces, a probar los límites de sus tres leyes, para así poder encontrar en dónde fallarían o dónde se comportarían de manera paradójica o imprevista. Su trabajo sugiere que no hay un conjunto de leyes establecidas que puedan anticiparse a todas las circunstancias.[25]

Áreas relacionados

Véase también

Referencias

  1. Moor, James H. (Julio-Agosto de 2006). «The Nature, Importance and Difficulty of Machine Ethics». IEEE Intelligent Systems 21 (4): 18-21. doi:10.1109/MIS.2006.80. 
  2. Wallach, Wendell; Allen, Colin (noviembre de 2008). Moral Machines: Teaching Robots Right from Wrong. USA: Oxford University Press. ISBN 978-0-19-537404-9. 
  3. Anderson, Michael; Anderson, Susan Leigh, eds. (julio de 2011). Machine Ethics. Cambridge University Press. ISBN 978-0-521-11235-2. 
  4. Anderson, Michael; Anderson, Susan Leigh, eds. (July–August 2006). . IEEE Intelligent Systems 21 (4): 10-63. ISSN 1541-1672. Archivado desde el original el 26 de noviembre de 2011. 
  5. Tucker, Patrick (13 de mayo de 2014). «Now The Military Is Going To Build Robots That Have Morals». Defense One. Consultado el 9 de julio de 2014. 
  6. «Best Selling Science Books». New York Times. New York Times. 8 de septiembre de 2014. Consultado el 9 de noviembre de 2014. 
  7. C. d. Hoven, M. J.; Manders-Huits, N. (eds.). Ethics and Information Technology. ISSN 1572-8439 http://www.springer.com/computer/swe/journal/10676 |url= sin título (ayuda). 
  8. Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  9. Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  10. Science New Navy-funded Report Warns of War Robots Going "Terminator" el 28 de julio de 2009 en Wayback Machine., by Jason Mick (Blog), dailytech.com, February 17, 2009.
  11. Navy report warns of robot uprising, suggests a strong moral compass, by Joseph L. Flatley engadget.com, Feb 18th 2009.
  12. AAAI Presidential Panel on Long-Term AI Futures 2008-2009 Study, Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
  13. Bostrom, Nick; Yudkowsky, Eliezer (2011). (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. Archivado desde el original el 4 de marzo de 2016. Consultado el 24 de abril de 2015. 
  14. Santos-Lang, Chris (2002). . Archivado desde el original el 3 de diciembre de 2011. 
  15. Santos-Lang, Christopher (2014). «Moral Ecology Approaches to Machine Ethics» (PDF). En van Rysewyk, Simon; Pontier, Matthijs, eds. Machine Medical Ethics. Switzerland: Springer. pp. 111-127. doi:10.1007/978-3-319-08108-3_8. 
  16. Evolving Robots Learn To Lie To Each Other, Popular Science, August 18, 2009
  17. Anderson, Susan Leigh (2011): The Unacceptability of Asimov's Three Laws of Robotics as a Basis for Machine Ethics. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.285-296.
  18. Powers, Thomas M. (2011): Prospects for a Kantian Machine. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.464-475.
  19. Muehlhauser, Luke, Helm, Louie (2012): Intelligence Explosion and Machine Ethics. http://intelligence.org/files/IE-ME.pdf
  20. Yudkowsky, Eliezer (2004): Coherent Extrapolated Volition. http://intelligence.org/files/CEV.pdf
  21. Guarini, Marcello (2011): Computational Neural Modeling and the Philosophy of Ethics. Reflections on the Particularism-Generalism Debate. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.316-334.
  22. Hibbard, Bill (2014): Ethical Artificial Intelligence. http://arxiv.org/abs/1411.1373
  23. Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4).
  24. Nazaretyan, A. (2014). A. H. Eden, J. H. Moor, J. H. Søraker and E. Steinhart (eds): Singularity Hypotheses: A Scientific and Philosophical Assessment. Minds & Machines, 24(2), pp.245-248.
  25. Asimov, Isaac (2008). I, robot. Nueva York: Bantam. ISBN 0-553-38256-X. 

Notas

  • Wallach, Wendell; Allen, Colin (November 2008). Moral Machines: Teaching Robots Right from Wrong. USA: Oxford University Press.
  • Anderson, Michael; Anderson, Susan Leigh, eds (July 2011). Machine Ethics. Cambridge University Press.
  • Storrs Hall, J. (May 30, 2007). Beyond AI: Creating the Conscience of the Machine Prometheus Books.
  • Moor, J. (2006). The Nature, Importance, and Difficulty of Machine Ethics. IEEE Intelligent Systems, 21(4), pp. 18–21.
  • Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4).

Otras lecturas

  • Anderson, Michael; Anderson, Susan Leigh, eds (July/August 2006). "". IEEE Intelligent Systems 21 (4): 10-63.
  • Bendel, Oliver (December 11, 2013). Considerations about the Relationship between Animal and Machine Ethics. AI & SOCIETY, DOI 10.1007/s00146-013-0526-3.
  • Dabringer, Gerhard, ed. (2010). "". Austrian Ministry of Defence and Sports, Vienna 2010, ISBN 978-3-902761-04-0.
  • Gardner, A. (1987). An Artificial Approach to Legal Reasoning. Cambridge, MA: MIT Press.
  • Georges, T. M. (2003). Digital Soul: Intelligent Machines and Human Values. Cambridge, MA: Westview Press.
  • Singer, P.W. (December 29, 2009). Wired for War: The Robotics Revolution and Conflict in the 21st Century: Penguin.

Enlaces externos

  • , Hartford University links to conferences, articles and researchers.
  •   Datos: Q6723711

Ética, máquinas, ética, máquinas, moral, máquinas, parte, ética, inteligencia, artificial, trata, comportamiento, moral, seres, inteligencia, artificial, ética, máquinas, contrasta, roboética, enfoca, comportamiento, moral, humanos, mientras, diseñan, construy. La etica de las maquinas o moral de las maquinas es la parte de la etica de la inteligencia artificial que trata el comportamiento moral de los seres con inteligencia artificial 1 La etica de las maquinas contrasta con la roboetica que se enfoca al comportamiento moral de los humanos mientras disenan construyen usan y tratan a los seres con inteligencia artificial La etica de las maquinas no debe ser confundida con la etica computacional la cual se enfoca en el comportamiento profesional en el uso de las computadoras y la informacion Indice 1 Historia 2 Alcance 3 Enfoque 3 1 Urgencia 3 2 Algoritmos 3 3 Entrenamiento e instruccion 4 Implicaciones eticas 5 Aproximaciones 6 La etica de las maquinas en la ficcion 7 Areas relacionados 8 Vease tambien 9 Referencias 10 Notas 11 Otras lecturas 12 Enlaces externosHistoria EditarAntes del siglo 21 la etica de las maquinas no habia sido tomada en cuenta fuera de la literatura debido principalmente a la computacion y las limitaciones de la inteligencia artificial Estas limitaciones estan siendo superadas a traves de la ley de Moore y un enfoque renovado en el campo de la inteligencia artificial La etica de las maquinas se ha vuelto un campo realista desde que las computadoras comenzaron a manejar transacciones medicas y monetarias El profesor James H Moor esta acreditado por haber acunado la frase en su paper del 2006 La naturaleza importancia y dificultad de la etica de las maquinas asi como por la definicion lt el cual se anuncia como el primer libro en examinar el reto de construir agentes morales artificiales entrando profundamente en la naturaleza humana de la toma de decisiones y la etica Se citaron unas 450 fuentes de las cuales alrededor de 100 abordaron las principales preguntas sobre la etica de las maquinas Pocas fueron escritas antes del siglo 21 principalmente porque cualquier forma de inteligencia artificial era inexistente 2 En 2011 Cambridge University Press publico una coleccion de ensayos sobre la etica de las maquinas editado por Michael y Susan Leigh Anderson 3 quienes tambien editaron un numero especial sobre el tema en la IEEE Sistemas Inteligentes en 2006 4 En 2014 la Oficina de Investigacion Naval estadounidense anuncio que distribuiria 7 5 millones en convenciones por cinco anos a investigadores universitarios para estudiar cuestiones de la etica de las maquinas aplicadas a robots autonomos 5 y Nick Bostrom en su libro La superinteligencia caminos peligros estrategias elevo la etica de las maquinas como el mas importante problema que ha enfrentado la humanidad ademas alcanzo el lugar 17 en la lista de los libros de ciencia ficcion mejor vendidos del New York Times 6 Articulos sobre la etica de las maquinas aparecen regularmente en la revista Etica y Tecnologias de la Informacion 7 Alcance EditarMoor distingue entre 1 Agentes de impacto etico definido como las maquinas que conllevan un impacto etico Agentes eticos implicitos acciones restringidas para evitar resultados no eticos Agentes eticos explicitos donde la maquina aplica la etica de la misma manera que una computadora que juega ajedrez Agentes totalmente eticos permitiendo que los tres agentes anteriores deriven de la etica de sus desarrolladoresEnfoque EditarUrgencia Editar En 2009 academicos y tecnicos expertos asistieron a una conferencia para discutir sobre el impacto potencial de que las computadoras y robots hipoteticamente se vuelvan autosuficientes y capaces de tomar sus propias decisiones Discutieron sobre la posibilidad y el nivel en el que las computadoras y robots sean capaces de adquirir un nivel de autonomia y a que grado podrian utilizar dicha habilidad para significar un posible riesgo o amenaza Notaron que algunas maquinas han adquirido distintas formas de semiautonomia incluso siendo capaces de encontrar fuentes de energia y de elegir de manera independiente objetivos para atacar con armas Tambien encontraron que algunos virus de computadora son capaces de evadir el proceso de eliminacion y han alcanzado una inteligencia de cucaracha Ademas senalaron que la autoconciencia como se muestra en la ciencia ficcion es muy poco probable pero que existen otros riesgos y peligros potenciales 8 Algunos expertos y academicos han cuestionado el uso de robots para combate militar especialmente cuando a estos robots se les da un grado de funciones autonomas 9 La Armada de los Estados Unidos ha financiado un reporte en el que se senala que mientras mas complejos se vuelvan los robots militares debe de haber una mayor atencion a las implicaciones de su capacidad para tomar decisiones autonomas 10 11 El presidente de la Asociacion para el Avance de la Inteligencia Artificial ha encargado un estudio para examinar esta cuestion 12 Se enfocan hacia programas como el dispositivo de adquisicion del lenguaje que puede emular la interaccion humana Algoritmos Editar Nick Bostrom y Eliezer Yudkowsky han argumentado a favor de los arboles de decision como el ID3 por encima de las redes neuronales y algoritmos geneticos con la base de que los arboles de decision obedecen a normas sociales modernas de transparencia y previsibilidad por ejemplo stare decisis 13 mientras que Chris Santos Lang alega en la direccion opuesta con la justificacion de que se debe permitir cambiar las normas de cualquier epoca y que el fallo natural satisfaga estas normas lo cual ha sido esencial en hacer a los humanos menos vulnerables que las maquinas ante los hackers 14 15 Entrenamiento e instruccion Editar En 2009 durante un experimento en el Laboratorio de Sistemas Inteligentes en la Escuela Politecnica Federal de Lausana en Suiza robots que fueron programados para cooperar entre si en la busqueda de un recurso beneficioso y evitando uno danino eventualmente aprendieron a mentir entre ellos con el fin de obtener el recurso que buscaban 16 Un problema en este caso puede haber sido que los objetivos eran terminales es decir en comparacion los motivos humanos tienen una calidad de que requieren un aprendizaje continuo Los robots fueron agrupados en clanes y se utilizo el codigo genetico digital de los miembros exitosos para la proxima generacion Despues de 50 generaciones sucesivas un miembro de los clanes descubrio como indicar la comida en vez del veneno Ademas hubo robots que senalaban el peligro y morian por salvar a otros Estas adaptaciones pueden haber sido el resultado del codigo genetico de sus creadores humanos 14 Implicaciones eticas EditarEn Moral Machines Teaching Robots Right from Wrong Wendell Wallach y Colin Allen concluyen que los intentos de ensenar a los robots la diferencia entre el bien y el mal nos ayudara a avanzar en el entendimiento de la etica humana motivando a los humanos para acortar la brecha en la teoria normativa moderna y brindando una plataforma para la investigacion experimental 2 Aproximaciones EditarSe han hecho varios intentos para hacer la etica computable o al menos formal Mientras que las tres leyes de la robotica de Isaac Asimov usualmente no son consideradas como adecuadas para funcionar como agente moral artificial 17 ademas se ha estudiado que el imperativo categorico de Kant si puede ser utilizado 18 Sin embargo se ha senalado que los valores humanos son muy complejos en algunos aspectos 19 Una manera de superar esta dificultad es recibir los valores directamente de las personas a traves de un mecanismo por ejemplo aprendiendolos 20 21 22 Otro enfoque es basar las consideraciones eticas actuales en situaciones similares pasadas A esto se le llama casuistica y puede implementarse a traves de la investigacion en Internet El consenso de millones puede llevar a una decision que depende de la democracia 23 Un experimento mental se centra en Genie Golem con poderes ilimitados y se presenta el mismo ante el lector Genie afirma que volvera en 50 anos y exige que se le entregue un conjunto definido de valores morales El proposito de este experimento es iniciar un discurso sobre la mejor la manera de definir la etica para que sea entendible para las computadoras 24 La etica de las maquinas en la ficcion EditarEn 1950 Isaac Asimov trato el asunto en su libro Yo Robot Ante la insistencia de su editor John W Campbell Jr propuso las tres leyes de la robotica para regir los sistemas de inteligencia artificial Gran parte de su trabajo se dedico entonces a probar los limites de sus tres leyes para asi poder encontrar en donde fallarian o donde se comportarian de manera paradojica o imprevista Su trabajo sugiere que no hay un conjunto de leyes establecidas que puedan anticiparse a todas las circunstancias 25 Areas relacionados EditarBioetica Teoria computacional de la mente Filosofia de la menteVease tambien EditarInteligencia artificial en la ficcion Google carReferencias Editar a b Moor James H Julio Agosto de 2006 The Nature Importance and Difficulty of Machine Ethics IEEE Intelligent Systems 21 4 18 21 doi 10 1109 MIS 2006 80 a b Wallach Wendell Allen Colin noviembre de 2008 Moral Machines Teaching Robots Right from Wrong USA Oxford University Press ISBN 978 0 19 537404 9 Anderson Michael Anderson Susan Leigh eds julio de 2011 Machine Ethics Cambridge University Press ISBN 978 0 521 11235 2 Anderson Michael Anderson Susan Leigh eds July August 2006 Special Issue on Machine Ethics IEEE Intelligent Systems 21 4 10 63 ISSN 1541 1672 Archivado desde el original el 26 de noviembre de 2011 Tucker Patrick 13 de mayo de 2014 Now The Military Is Going To Build Robots That Have Morals Defense One Consultado el 9 de julio de 2014 Best Selling Science Books New York Times New York Times 8 de septiembre de 2014 Consultado el 9 de noviembre de 2014 C d Hoven M J Manders Huits N eds Ethics and Information Technology ISSN 1572 8439 http www springer com computer swe journal 10676 url sin titulo ayuda Scientists Worry Machines May Outsmart Man By JOHN MARKOFF NY Times July 26 2009 Call for debate on killer robots By Jason Palmer Science and technology reporter BBC News 8 3 09 Science New Navy funded Report Warns of War Robots Going Terminator Archivado el 28 de julio de 2009 en Wayback Machine by Jason Mick Blog dailytech com February 17 2009 Navy report warns of robot uprising suggests a strong moral compass by Joseph L Flatley engadget com Feb 18th 2009 AAAI Presidential Panel on Long Term AI Futures 2008 2009 Study Association for the Advancement of Artificial Intelligence Accessed 7 26 09 Bostrom Nick Yudkowsky Eliezer 2011 The Ethics of Artificial Intelligence PDF Cambridge Handbook of Artificial Intelligence Cambridge Press Archivado desde el original el 4 de marzo de 2016 Consultado el 24 de abril de 2015 a b Santos Lang Chris 2002 Ethics for Artificial Intelligences Archivado desde el original el 3 de diciembre de 2011 Santos Lang Christopher 2014 Moral Ecology Approaches to Machine Ethics PDF En van Rysewyk Simon Pontier Matthijs eds Machine Medical Ethics Switzerland Springer pp 111 127 doi 10 1007 978 3 319 08108 3 8 Evolving Robots Learn To Lie To Each Other Popular Science August 18 2009 Anderson Susan Leigh 2011 The Unacceptability of Asimov s Three Laws of Robotics as a Basis for Machine Ethics In Machine Ethics ed Michael Anderson Susan Leigh Anderson New York Oxford University Press pp 285 296 Powers Thomas M 2011 Prospects for a Kantian Machine In Machine Ethics ed Michael Anderson Susan Leigh Anderson New York Oxford University Press pp 464 475 Muehlhauser Luke Helm Louie 2012 Intelligence Explosion and Machine Ethics http intelligence org files IE ME pdf Yudkowsky Eliezer 2004 Coherent Extrapolated Volition http intelligence org files CEV pdf Guarini Marcello 2011 Computational Neural Modeling and the Philosophy of Ethics Reflections on the Particularism Generalism Debate In Machine Ethics ed Michael Anderson Susan Leigh Anderson New York Oxford University Press pp 316 334 Hibbard Bill 2014 Ethical Artificial Intelligence http arxiv org abs 1411 1373 Anderson M and Anderson S 2007 Creating an Ethical Intelligent Agent AI Magazine Volume 28 4 Nazaretyan A 2014 A H Eden J H Moor J H Soraker and E Steinhart eds Singularity Hypotheses A Scientific and Philosophical Assessment Minds amp Machines 24 2 pp 245 248 Asimov Isaac 2008 I robot Nueva York Bantam ISBN 0 553 38256 X Notas EditarWallach Wendell Allen Colin November 2008 Moral Machines Teaching Robots Right from Wrong USA Oxford University Press Anderson Michael Anderson Susan Leigh eds July 2011 Machine Ethics Cambridge University Press Storrs Hall J May 30 2007 Beyond AI Creating the Conscience of the Machine Prometheus Books Moor J 2006 The Nature Importance and Difficulty of Machine Ethics IEEE Intelligent Systems 21 4 pp 18 21 Anderson M and Anderson S 2007 Creating an Ethical Intelligent Agent AI Magazine Volume 28 4 Otras lecturas EditarAnderson Michael Anderson Susan Leigh eds July August 2006 Special Issue on Machine Ethics IEEE Intelligent Systems 21 4 10 63 Bendel Oliver December 11 2013 Considerations about the Relationship between Animal and Machine Ethics AI amp SOCIETY DOI 10 1007 s00146 013 0526 3 Dabringer Gerhard ed 2010 Ethical and Legal Aspects of Unmanned Systems Interviews Austrian Ministry of Defence and Sports Vienna 2010 ISBN 978 3 902761 04 0 Gardner A 1987 An Artificial Approach to Legal Reasoning Cambridge MA MIT Press Georges T M 2003 Digital Soul Intelligent Machines and Human Values Cambridge MA Westview Press Singer P W December 29 2009 Wired for War The Robotics Revolution and Conflict in the 21st Century Penguin Enlaces externos EditarMachine Ethics Hartford University links to conferences articles and researchers Datos Q6723711Obtenido de https es wikipedia org w index php title Etica de las maquinas amp oldid 133660098, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos