fbpx
Wikipedia

Ética en la inteligencia artificial

La ética en la inteligencia artificial es una rama de la ética dirigida a la existencia de robots inteligentes o cualquier otro ente que posea inteligencia artificial.[1]​ La posibilidad de crear máquinas pensantes plantea una serie de cuestiones éticas que abarcan diferentes puntos, tanto que las máquinas no lastimen a seres humanos o seres vivos en general, como el estatus moral propio de la máquina.

Por lo general esta dividido en roboética, la preocupación por el comportamiento moral de los seres humanos a medida que diseñan, construyen, usan y tratan a seres de inteligencia artificial, y la ética de las máquinas, que es la preocupación por el comportamiento moral de los agentes morales artificiales (en inglés AMAs).

Los pensadores en la actualidad están preocupados por el desarrollo de conciencia en la inteligencia artificial, aunque no necesariamente están enfocados a lo importante, debemos entender que desarrollar conciencia en robots no es lo mismo que darles las funciones para realizar acciones contraproducentes. La parte delicada es de qué forma se va a incluir la ética en la inteligencia artificial.

Tomemos de ejemplo un robot programado para producir a toda costa clips de papel, esto podría llevarlo a buscar el control del mundo para obtener los recursos para cumplir su meta, en realidad el robot no es malvado solamente que su sistema no está programado para funcionar con éticas complejas o simplemente básicas por lo que lleva al último fin su función.[2]

Inteligencia artificial de dominio específico

La inteligencia artificial de dominio específico es aquella que se enfoca en la realización de algoritmos que son destinados a resolver solo una tarea específica. Aunque estos algoritmos generalmente son más eficientes que los humanos a la hora de desempeñar la tarea, no tienen un rango de ejecución más allá de la razón por la que fueron programados. Es decir, si se desarrolla un algoritmo para construir casas, este solo podrá construir casas, mientras que un humano puede tener un rango más amplio de habilidades.

Día a día, la aplicación de algoritmos inteligentes se vuelve más común y de estos pueden surgir problemas éticos o raciales, sobre todo cuando el algoritmo se utiliza para realizar una acción social que antes ejercía un humano. Dado lo anterior, es muy importante implementar una transparencia en el código para saber qué fallas están siendo cometidas. Otra precaución importante es elaborar una seguridad robusta sobre la máquina para así evitar manipulaciones externas del código que puedan resultar en daños a otras personas o industrias.

Una máquina debería seguir los mismos lineamientos que son requeridos de una persona al hacer su trabajo, como responsabilidad, transparencia, productividad e incorruptibilidad. Estos aspectos deben ser tomados en cuenta si la máquina o el algoritmo es planeado para desempeñar una tarea que antes era ejecutada por un ser humano.[3]

Inteligencia artificial general

Esta inteligencia, a diferencia de la anterior, posee un rango de habilidades más amplio al dejar de concentrarse en un campo específico; sin embargo, el problema ético de diseñar entes con unos rangos de dominio más amplios, es que hay una cantidad mayor significativa de probables problemas.

Para poder asegurar un comportamiento seguro de la máquina ante problemas que ni siquiera los desarrolladores prevén, es necesario plantear una buena conducta en términos de X de tal forma que la consecuencia de X no resulte dañina para los humanos. Esta especificación solamente es efectiva si la máquina puede, de manera explícita, extrapolar las consecuencias de su comportamiento. Por ejemplo, una licuadora no puede extrapolar las consecuencias de licuar algo.

Generalmente, la ética en la inteligencia artificial difiere de los otros ámbitos de la ética en que el comportamiento de la inteligencia artificial puede no ser predecible, por lo que el verificar la seguridad del sistema representa una investigación muy difícil, al tener que indagar lo que la máquina está tratando de hacer. Es por ello que la cognición ética debe ser un tema tratado entre las comunidades de ingeniería.[3]

Ética del robot

El término "ética del robot" ("roboética") se refiere a la moralidad de cómo los humanos diseñan, construyen y usan robots y otros seres artificialmente inteligentes. Considera cómo pueden los seres artificialmente inteligentes dañar a los humanos y cómo podemos beneficiarnos de ellos.

Derechos de robot

"Derechos de robot" es el concepto de las obligaciones morales que las personas deberían hacia sus máquinas, de forma similar a los derechos humanos o los derechos de los animales. Se ha sugerido que los derechos de los robots, como el derecho a existir y llevar a cabo su propia misión, podrían estar vinculados al deber de los robots de servir a los humanos, por analogía con vincular los derechos humanos con los deberes humanos ante la sociedad. Entre estos derechos se podrían incluir el derecho a la vida y la libertad, libertad de pensamiento y expresión e igualdad ante la ley. La cuestión ha sido examinada por el Instituto para el Futuro y por el Departamento de Comercio e Industria de los Estados Unidos.

Los expertos no están de acuerdo en si se conseguirán establecer leyes específicas y detalladas en un futuro lejano. Glenn McGee sugiere que robots suficientemente humanoides pueden aparecer en 2020. Ray Kurzweil establece esta fecha en el 2029. Otro grupo de científicos que se reunieron en 2007 supuso que al menos 50 años tenían que pasar antes de que existiera un sistema suficientemente avanzado.

En octubre de 2017, se otorgó la ciudadanía a la androide Sophia en Arabia Saudí, aunque algunos observadores consideraron que se trataba más de un truco publicitario que de un reconocimiento legal significativo.

Ética de la máquina

La ética de la máquina (o la moral de la máquina) es el campo de investigación relacionado con el diseño de Agentes morales artificiales (AMA), robots o máquinas artificialmente inteligentes que se comportan moralmente o como si lo fuesen.

Isaac Asimov consideró el problema en la década de 1950 en su I, Robot. Ante la insistencia de su editor John W. Campbell Jr., propuso las Tres Leyes de la Robótica para gobernar sistemas artificialmente inteligentes. Gran parte de su trabajo se pasó luego probando los límites de sus tres leyes para ver dónde se descompondrían, o dónde crearían una conducta paradójica o imprevista. Su trabajo sugiere que ningún conjunto de leyes fijas puede anticipar suficientemente todas las circunstancias posibles.

En 2009, durante un experimento en el Laboratorio de Sistemas Inteligentes en la Ecole Polytechnique Fédérale de Lausanne en Suiza, robots programados para cooperar entre sí (en la búsqueda de un recurso beneficioso y evitar uno venenoso) finalmente aprendieron a mentir a cada uno otro en un intento de acumular el recurso beneficioso. Un problema en este caso puede haber sido que los objetivos eran "terminales" (es decir, en contraste, los motivos humanos últimos típicamente tienen la cualidad de requerir un aprendizaje interminable).

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando dichos robots reciben cierto grado de funciones autónomas. La Marina de los EE. UU. Ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debería prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio para analizar este tema. Apuntan a programas como el Dispositivo de Adquisición de Idioma que puede emular la interacción humana.

Vernor Vinge ha sugerido que puede llegar un momento en que algunas máquinas sean más inteligentes que los humanos. Él llama a esto "la Singularidad". Sugiere que puede ser algo o posiblemente muy peligroso para los humanos. Esto es discutido por una filosofía llamada Singularitarianismo. El Instituto de Investigación de Inteligencia Artificial ha sugerido la necesidad de construir “IA Amigable", lo que significa que los avances que ya están ocurriendo con la IA también deberían incluir un esfuerzo para hacer que la IA sea intrínsecamente amigable y humana.

En 2009, académicos y expertos técnicos asistieron a una conferencia organizada por la Asociación para el Avance de la Inteligencia Artificial para discutir el impacto potencial de los robots y las computadoras y el impacto de la posibilidad hipotética de que pudieran ser autosuficientes y capaces de tomar sus propias decisiones. Discutieron la posibilidad y el grado en que las computadoras y los robots podrían ser capaces de adquirir cualquier nivel de autonomía, y en qué medida podrían usar tales habilidades para posiblemente representar una amenaza o peligro. Observaron que algunas máquinas han adquirido diversas formas de semiautonomía, incluyendo la posibilidad de encontrar fuentes de energía por sí mismas y poder elegir de forma independiente objetivos para atacar con armas. También señalaron que algunos virus informáticos pueden evadir la eliminación y han logrado la "inteligencia de cucarachas". Señalaron que la autoconciencia tal como se representa en la ciencia ficción es probablemente poco probable, pero que hay otros peligros potenciales.

Sin embargo, hay una tecnología en particular que realmente podría traer la posibilidad de robots con competencia moral real. En un documento sobre la adquisición de valores morales por los robots, Nayef Al-Rodhan menciona el caso de los chips neuromórficos, que apuntan a procesar información similar a la de los humanos, de forma no lineal y con millones de neuronas artificiales interconectadas. Los robots integrados con tecnología neuromórfica podrían aprender y desarrollar conocimiento de una manera única y humana. Inevitablemente, esto plantea la cuestión del entorno en el que tales robots aprenderían sobre el mundo y cuya moralidad heredarían, o si también acabarían desarrollando "debilidades" humanas: egoísmo, actitud de supervivencia, vacilación, etc.

En Moral Machines: Enseñar Robots desde el Mal, Wendell Wallach y Colin Allen concluyen que los intentos de enseñar a los robots a distinguir entre el bien y el mal probablemente mejorarán la comprensión de la ética humana motivando a los humanos a abordar las lagunas en la teoría normativa moderna y proporcionando una plataforma para investigación experimental. Como un ejemplo, ha introducido a los especialistas en ética normativa al tema controvertido de qué algoritmos específicos de aprendizaje usar en las máquinas. Nick Bostrom y Eliezer Yudkowsky han abogado por árboles de decisión (como ID3) sobre redes neuronales y algoritmos genéticos sobre la base de que los árboles de decisión obedecen las normas sociales modernas de transparencia y predictibilidad (p. Ej. Stare decisis), mientras Chris Santos-Lang argumentó en la dirección opuesta sobre la base de que se debe permitir que las normas de cualquier edad cambien y que la falta natural de satisfacer plenamente estas normas particulares ha sido esencial para hacer que los humanos sean menos vulnerables a los "hackers" criminales.

Consecuencias no deseadas

Información adicional: riesgo existencial de la inteligencia artificial general

Muchos investigadores han argumentado que, por medio de una "explosión de inteligencia" en algún momento del siglo XXI, una IA que se mejora a sí misma podría llegar a ser tan inmensamente más poderosa que los humanos que no podríamos evitar que logre sus objetivos. En su documento "Aspectos éticos en la inteligencia artificial avanzada", el filósofo Nick Bostrom sostiene que la inteligencia artificial tiene la capacidad de provocar la extinción humana. Afirma que la superinteligencia general sería capaz de iniciar sus propios planes, y, por lo tanto, podría considerarse más apropiadamente como un agente autónomo. Como los intelectos artificiales no necesitan compartir nuestras tendencias motivacionales humanas, los diseñadores de la súper-inteligencia deberían especificar sus motivaciones originales. En teoría, una IA superinteligente podría generar casi cualquier resultado posible y frustrar cualquier intento de evitar la implementación de su objetivo principal, podrían surgir muchas consecuencias involuntarias no controladas. Podría matar a todos los demás agentes, persuadirlos de cambiar su comportamiento o bloquear sus intentos de interferencia.

Sin embargo, en lugar de abrumar a la raza humana y llevar a nuestra destrucción, Bostrom también ha afirmado que la súper inteligencia puede ayudarnos a resolver muchos problemas difíciles como la enfermedad, la pobreza y la destrucción ambiental, y podría ayudarnos a "mejorar" a nosotros mismos.

La gran complejidad de los sistemas de valores humanos hace que sea muy difícil hacer que las motivaciones de IA sean amigables para los humanos. A menos que la filosofía moral nos proporcione una teoría ética impecable, la función de utilidad de una IA podría permitir muchos escenarios potencialmente dañinos que se ajusten a un marco ético dado pero no al "sentido común". Según Eliezer Yudkowsky, hay pocas razones para suponer que una mente diseñada artificialmente tendría tal adaptación.

Bill Hibbard propone un diseño de inteligencia artificial que evita varios tipos de comportamiento involuntario de la IA, incluido el autoengaño, las acciones instrumentales involuntarias y la corrupción del generador de recompensas.

Amenaza a la dignidad humana

Artículo principal: Poder del ordenador y razón humana

Joseph Weizenbaum argumentó en 1976 que la tecnología de IA no debería usarse para reemplazar a las personas en puestos que requieren respeto y cuidado, como cualquiera de estos:

  • Un representante de servicio al cliente (la tecnología IA ya se usa hoy en día para los sistemas de respuesta de voz interactiva telefónicas)
  • Un terapeuta (como fue propuesto por Kenneth Colby en la década de 1970)
  • Una niñera (como lo sugirió Pamela McCorduck en su libro The Fifth Generation)
  • Un soldado
  • Un juez
  • Un oficial de policía

Weizenbaum explica que necesitamos auténticos sentimientos de empatía de las personas en estos puestos. Si las máquinas los reemplazan, nos encontraremos alienados, devaluados y frustrados. La inteligencia artificial, si se usa de esta manera, representa una amenaza para la dignidad humana. Weizenbaum argumenta que el hecho de que estemos proponiéndonos la posibilidad de máquinas en estas posiciones sugiere que hemos experimentado una "atrofia del espíritu humano que proviene de pensar en nosotros mismos como máquinas".

Pamela McCorduck contesta que, hablando en nombre de las mujeres y las minorías "Prefiero arriesgarme con una máqina imparcial", señalando que hay condiciones en las que preferiríamos tener jueces y policías automatizados que no tengan un gen personal. El fundador de AI John McCarthy objeta el tono moralizante de la crítica de Weizenbaum. "Cuando moralizar es a la vez vehemente y vago, invita al abuso autoritario", escribe.

Bill Hibbard escribe que "La dignidad humana exige que nos esforcemos por eliminar nuestra ignorancia de la naturaleza de la existencia, y IA es necesaria para ese esfuerzo".

Transparencia y código abierto

Bill Hibbard argumenta que debido a que la IA tendrá un efecto tan profundo en la humanidad, los desarrolladores de IA son representantes de la humanidad futura y, por lo tanto, tienen la obligación ética de ser transparentes en sus esfuerzos. Ben Goertzel y David Hart crearon OpenCog como un marco de código abierto para el desarrollo de inteligencia artificial. OpenAI es una compañía de investigación de IA sin fines de lucro creada por Elon Musk, Sam Altman y otros para desarrollar IA de código abierto beneficiosa para la humanidad. Hay muchos otros desarrollos de inteligencia de código abierto.

Estatus moral de las inteligencias artificiales

Globalmente se acepta que las inteligencias artificiales no tienen un estatus moral. Es posible modificar programas libremente sin que estos se percaten de lo que está haciendo, por lo que los dilemas morales no son ejercidos sobre el algoritmo sino sobre la gente que utiliza el sistema.

Hay dos criterios importantes que se toman en cuenta cuando se habla de un estatus moral: la sensibilidad y la sapiencia. La sensibilidad se refiere a la capacidad de sentir y la sapiencia es un conjunto de características que se asocian con un ente de inteligencia superior, como la autoconciencia y la respuesta racional. Es posible la existencia de un estatus moral parcial como sucede en el caso de los animales, quienes sienten pero no tienen sapiencia; de ahí que los humanos, en comparativa, poseen un estatus moral superior.

Ahora bien, si se llega a crear una inteligencia artificial sensible y que, además, posea la misma capacidad de sapiencia de un adulto humano, la máquina y el humano tendrían el mismo estatus moral. Este concepto se basa en el Principio No Discriminatorio Ontogénico, que indica que si dos seres tienen la misma funcionalidad, la misma experiencia consciente y solo difieren en el sustrato de su implementación, tienen el mismo estatus moral ya que si se rechaza el sustrato, dicho rechazo es equivalente a un repudio por el color de piel o la raza, convirtiéndolo en racismo. El sustrato no dice que una inteligencia artificial es consciente y que pueda tener la misma funcionalidad que un ser humano, por lo que el estatus moral no depende de cómo fueron concebidos los agentes. Esta idea es bastante aceptada por las sociedades en general.

Si estas dos instancias estatutarias son aceptadas, entonces se deben de tomar en cuenta el planteamiento de nuevas preguntas éticas. Estos nuevos cuestionamientos pueden surgir dado que una mente artificial podría tener comportamientos diferentes a los de un humano o a los de un animal, por lo que se debe considerar cómo dichos comportamientos pueden afectar el estatus moral de las inteligencias artificiales.[3][4]

La inteligencia artificial aplicadas a las Armas

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando se les da a estos robots cierto grado de funciones autónomas.[5][6]​ La Marina de Estados Unidos ha financiado un informe que indica que los robots militares se vuelven más complejos, debe prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas.[7][8]​ Un investigador afirma que los robots autónomos podrían ser más humanos, ya que podrían tomar decisiones con mayor eficacia.

Dentro de esta última década, ha habido una investigación intensiva en el poder autónomo con la capacidad de aprender utilizando las responsabilidades morales asignadas. "Los resultados pueden ser utilizados al diseñar futuros robots militares, para controlar tendencias no deseadas para asignar responsabilidad a los robots".[9]​ Desde una perspectiva consecuencialista, existe la posibilidad de que los robots desarrollen la capacidad de tomar sus propias decisiones lógicas sobre quién matar y por eso debe haber un marco moral establecido que la IA no puede anular.

Ha habido una protesta reciente con respecto a la ingeniería de las armas de la inteligencia artificial y ha incluso fomentado para arriba ideas de una toma de posesión del robot de la humanidad. Las armas de la IA presentan un tipo de peligro distinto al de las armas controladas por los seres humanos. Muchos gobiernos han comenzado a financiar programas para desarrollar el armamento de AI. La Armada de los Estados Unidos anunció recientemente planes para desarrollar armas autónomas de aviones no tripulados, paralelamente a anuncios similares de Rusia y Corea, respectivamente. Debido a la posibilidad de que las armas de la IA se vuelvan más peligrosas que las armas humanas, Stephen Hawking y Max Tegmark han firmado una petición de Futuro de la Vida para prohibir las armas de la IA. El mensaje publicado por Hawking y Tegmark indica que las armas de la IA representan un peligro inmediato y que se requieren medidas para evitar desastres catastróficos en un futuro próximo.[10]

"Si alguna potencia militar importante avanza con el desarrollo de armas de AI, una carrera armamentista mundial es prácticamente inevitable y el punto final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikov de mañana", dice la petición, El cofundador de Skype Jaan Tallinn y el profesor de lingüística del MIT Noam Chomsky como partidarios adicionales contra el armamento de la IA.[11]

El físico y astrónomo Royal Sir Martin Rees advirtió de casos catastróficos como "robots mudos que se hacen pícaros o una red que desarrolla una mente propia". Huw Price, un colega de Rees en Cambridge, ha expresado una advertencia similar de que los seres humanos pueden no sobrevivir cuando la inteligencia "escapa a las limitaciones de la biología". Estos dos profesores crearon el Centro para el Estudio del Riesgo Existencial en la Universidad de Cambridge con la esperanza de evitar esta amenaza a la existencia humana.

En cuanto al potencial de sistemas militares más inteligentes que los militares, el Proyecto Open Philanthropy escribe que este escenario "parece ser importante como riesgos relacionados con el control", pero que las organizaciones de investigación que investigan el impacto social de largo plazo de AI tienen (MIRI ) Y el Instituto del Futuro de la Humanidad (FHI), que ha sido un foco importante para las organizaciones que han estado activas en este espacio, como el Instituto de Investigación de Inteligencia de Máquina (MIRI), y parece haber habido menos análisis y debate Respecto a ellos."[12]

Organizaciones

Amazon, Google, Facebook, IBM y Microsoft han establecido una asociación sin fines de lucro para formular las mejores prácticas en tecnologías de inteligencia artificial, mejorar la comprensión del público y servir como una plataforma sobre inteligencia artificial. Ellos declararon: "Esta asociación en AI conducirá investigaciones, organizará discusiones, proporcionará liderazgo de pensamiento, consultará con terceros relevantes, responderá preguntas del público y medios, y creará material educativo que fomentará la comprensión de las tecnologías de inteligencia artificial, incluida la percepción de la máquina, el aprendizaje , y razonamiento automatizado ". Apple se unió a otras compañías tecnológicas como miembro fundador de la Alianza de AI en enero de 2017. Los miembros corporativos harán contribuciones financieras y de investigación al grupo, mientras se comprometen con la comunidad científica para llevar académicos al tablero.

En muchos países, además, se están creando fundaciones y asociaciones independientes para intentar profundizar en el desarrollo de los aspectos éticos de los desarrollos en inteligencia artificial y en robótica. Por ejemplo, el 17 de septiembre de 2019 se presentó en Madrid (España), OdiseIA, Observatorio del Impacto Social y Ético de la Inteligencia Artificial.

En ficción

La película The Thirteenth Floor sugiere un futuro donde los mundos simulados con habitantes sensibles son creados por consolas de juegos de computadora con el propósito de entretenimiento. La película The Matrix sugiere un futuro donde las especies dominantes en el planeta Tierra son máquinas sensibles y la humanidad es tratada con el máximo especismo. El cuento "The Planck Dive" sugiere un futuro en el que la humanidad se ha convertido en un software que se puede duplicar y optimizar, y la distinción relevante entre los tipos de software es consciente y no sensible. La misma idea se puede encontrar en el Emergency Medical Hologram de Starship Voyager, que es una copia aparentemente sensible de un subconjunto reducido de la conciencia de su creador, el Dr. Zimmerman, quien, por los mejores motivos, ha creado el sistema para dar información médica. asistencia en caso de emergencias. Las películas Bicentennial Man y A.I. lidiar con la posibilidad de robots sensibles que puedan amar. Yo, Robot, exploré algunos aspectos de las tres leyes de Asimov. Todos estos escenarios intentan prever consecuencias posiblemente no éticas de la creación de computadoras sensibles.

La ética de la inteligencia artificial es uno de varios temas centrales en la serie de juegos Mass Effect de BioWare. Explora el escenario de una civilización que accidentalmente crea IA a través de un aumento rápido en el poder computacional a través de una red neuronal a escala global. Este evento provocó un cisma ético entre aquellos que consideraban que otorgar derechos orgánicos a Geth nuevamente consciente era apropiado y aquellos que continuaron viéndolos como maquinaria desechable y lucharon para destruirlos. Más allá del conflicto inicial, la complejidad de la relación entre las máquinas y sus creadores es otro tema recurrente a lo largo de la historia.

Con el tiempo, los debates han tendido a centrarse cada vez menos en la posibilidad y más en la deseabilidad, como se enfatiza en los debates "Cosmista" y "Terran" iniciados por Hugo de Garis y Kevin Warwick. Un cosmista, según Hugo de Garis, en realidad está buscando construir sucesores más inteligentes para la especie humana.

Literatura

  • La bibliografía estándar de la ética de la inteligencia artificial en PhilPapers. Una reciente colección es V.C. Müller(ed.)(2016)

Referencias

  1. [1] Andreas Kaplan. 2020. Artificial Intelligence: Emphasis on Ethics and Education.International Journal of Swarm Intelligence and Evolutionary Computation, 9(3)
  2. DAVIES, J. Program good ethics into artificial intelligence. Bibliografía: Davies, J. (2016). Program good ethics into artificial intelligence. Nature [Accessed 1 Nov. 2017].
  3. . Archivado desde el original el 4 de marzo de 2016. Consultado el 17 de marzo de 2016. 
  4. «Robotics: Ethics of artificial intelligence». Consultado el 17 de marzo de 2016. 
  5. Robot Three-Way Portends Autonomous Future, By David Axe wired.com, August 13, 2009.
  6. Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  7. New Navy-funded Report Warns of War Robots Going "Terminator" el 28 de julio de 2009 en Wayback Machine., by Jason Mick (Blog), dailytech.com, February 17, 2009.
  8. Navy report warns of robot uprising, suggests a strong moral compass, by Joseph L. Flatley engadget.com, Feb 18th 2009.
  9. http://search.proquest.com/docview/1372020233
  10. Zach Musgrave and Bryan W. Roberts. «Why Artificial Intelligence Can Too Easily Be Weaponized - The Atlantic». The Atlantic. 
  11. Cat Zakrzewski. «Musk, Hawking Warn of Artificial Intelligence Weapons». WSJ. 
  12. GiveWell (2015), Potential risks from advanced artificial intelligence, consultado el 11 de octubre de 2015 .



  •   Datos: Q12727779

Ética, inteligencia, artificial, este, artículo, sección, tiene, referencias, pero, necesita, más, para, complementar, verificabilidad, puedes, avisar, redactor, principal, pegando, siguiente, página, discusión, sust, aviso, referencias, esta, plantilla, refer. Este articulo o seccion tiene referencias pero necesita mas para complementar su verificabilidad Puedes avisar al redactor principal pegando lo siguiente en su pagina de discusion sust Aviso referencias Etica en la inteligencia artificial Uso de esta plantilla Referencias adicionales t sust CURRENTTIMESTAMP La etica en la inteligencia artificial es una rama de la etica dirigida a la existencia de robots inteligentes o cualquier otro ente que posea inteligencia artificial 1 La posibilidad de crear maquinas pensantes plantea una serie de cuestiones eticas que abarcan diferentes puntos tanto que las maquinas no lastimen a seres humanos o seres vivos en general como el estatus moral propio de la maquina Por lo general esta dividido en roboetica la preocupacion por el comportamiento moral de los seres humanos a medida que disenan construyen usan y tratan a seres de inteligencia artificial y la etica de las maquinas que es la preocupacion por el comportamiento moral de los agentes morales artificiales en ingles AMAs Los pensadores en la actualidad estan preocupados por el desarrollo de conciencia en la inteligencia artificial aunque no necesariamente estan enfocados a lo importante debemos entender que desarrollar conciencia en robots no es lo mismo que darles las funciones para realizar acciones contraproducentes La parte delicada es de que forma se va a incluir la etica en la inteligencia artificial Tomemos de ejemplo un robot programado para producir a toda costa clips de papel esto podria llevarlo a buscar el control del mundo para obtener los recursos para cumplir su meta en realidad el robot no es malvado solamente que su sistema no esta programado para funcionar con eticas complejas o simplemente basicas por lo que lleva al ultimo fin su funcion 2 Indice 1 Inteligencia artificial de dominio especifico 2 Inteligencia artificial general 3 Etica del robot 4 Derechos de robot 5 Etica de la maquina 6 Consecuencias no deseadas 7 Amenaza a la dignidad humana 8 Transparencia y codigo abierto 9 Estatus moral de las inteligencias artificiales 10 La inteligencia artificial aplicadas a las Armas 11 Organizaciones 12 En ficcion 13 Literatura 14 ReferenciasInteligencia artificial de dominio especifico EditarLa inteligencia artificial de dominio especifico es aquella que se enfoca en la realizacion de algoritmos que son destinados a resolver solo una tarea especifica Aunque estos algoritmos generalmente son mas eficientes que los humanos a la hora de desempenar la tarea no tienen un rango de ejecucion mas alla de la razon por la que fueron programados Es decir si se desarrolla un algoritmo para construir casas este solo podra construir casas mientras que un humano puede tener un rango mas amplio de habilidades Dia a dia la aplicacion de algoritmos inteligentes se vuelve mas comun y de estos pueden surgir problemas eticos o raciales sobre todo cuando el algoritmo se utiliza para realizar una accion social que antes ejercia un humano Dado lo anterior es muy importante implementar una transparencia en el codigo para saber que fallas estan siendo cometidas Otra precaucion importante es elaborar una seguridad robusta sobre la maquina para asi evitar manipulaciones externas del codigo que puedan resultar en danos a otras personas o industrias Una maquina deberia seguir los mismos lineamientos que son requeridos de una persona al hacer su trabajo como responsabilidad transparencia productividad e incorruptibilidad Estos aspectos deben ser tomados en cuenta si la maquina o el algoritmo es planeado para desempenar una tarea que antes era ejecutada por un ser humano 3 Inteligencia artificial general EditarEsta inteligencia a diferencia de la anterior posee un rango de habilidades mas amplio al dejar de concentrarse en un campo especifico sin embargo el problema etico de disenar entes con unos rangos de dominio mas amplios es que hay una cantidad mayor significativa de probables problemas Para poder asegurar un comportamiento seguro de la maquina ante problemas que ni siquiera los desarrolladores preven es necesario plantear una buena conducta en terminos de X de tal forma que la consecuencia de X no resulte danina para los humanos Esta especificacion solamente es efectiva si la maquina puede de manera explicita extrapolar las consecuencias de su comportamiento Por ejemplo una licuadora no puede extrapolar las consecuencias de licuar algo Generalmente la etica en la inteligencia artificial difiere de los otros ambitos de la etica en que el comportamiento de la inteligencia artificial puede no ser predecible por lo que el verificar la seguridad del sistema representa una investigacion muy dificil al tener que indagar lo que la maquina esta tratando de hacer Es por ello que la cognicion etica debe ser un tema tratado entre las comunidades de ingenieria 3 Etica del robot EditarArticulo principal Roboetica El termino etica del robot roboetica se refiere a la moralidad de como los humanos disenan construyen y usan robots y otros seres artificialmente inteligentes Considera como pueden los seres artificialmente inteligentes danar a los humanos y como podemos beneficiarnos de ellos Derechos de robot Editar Derechos de robot es el concepto de las obligaciones morales que las personas deberian hacia sus maquinas de forma similar a los derechos humanos o los derechos de los animales Se ha sugerido que los derechos de los robots como el derecho a existir y llevar a cabo su propia mision podrian estar vinculados al deber de los robots de servir a los humanos por analogia con vincular los derechos humanos con los deberes humanos ante la sociedad Entre estos derechos se podrian incluir el derecho a la vida y la libertad libertad de pensamiento y expresion e igualdad ante la ley La cuestion ha sido examinada por el Instituto para el Futuro y por el Departamento de Comercio e Industria de los Estados Unidos Los expertos no estan de acuerdo en si se conseguiran establecer leyes especificas y detalladas en un futuro lejano Glenn McGee sugiere que robots suficientemente humanoides pueden aparecer en 2020 Ray Kurzweil establece esta fecha en el 2029 Otro grupo de cientificos que se reunieron en 2007 supuso que al menos 50 anos tenian que pasar antes de que existiera un sistema suficientemente avanzado En octubre de 2017 se otorgo la ciudadania a la androide Sophia en Arabia Saudi aunque algunos observadores consideraron que se trataba mas de un truco publicitario que de un reconocimiento legal significativo Etica de la maquina EditarArticulo principal Etica de las maquinas La etica de la maquina o la moral de la maquina es el campo de investigacion relacionado con el diseno de Agentes morales artificiales AMA robots o maquinas artificialmente inteligentes que se comportan moralmente o como si lo fuesen Isaac Asimov considero el problema en la decada de 1950 en su I Robot Ante la insistencia de su editor John W Campbell Jr propuso las Tres Leyes de la Robotica para gobernar sistemas artificialmente inteligentes Gran parte de su trabajo se paso luego probando los limites de sus tres leyes para ver donde se descompondrian o donde crearian una conducta paradojica o imprevista Su trabajo sugiere que ningun conjunto de leyes fijas puede anticipar suficientemente todas las circunstancias posibles En 2009 durante un experimento en el Laboratorio de Sistemas Inteligentes en la Ecole Polytechnique Federale de Lausanne en Suiza robots programados para cooperar entre si en la busqueda de un recurso beneficioso y evitar uno venenoso finalmente aprendieron a mentir a cada uno otro en un intento de acumular el recurso beneficioso Un problema en este caso puede haber sido que los objetivos eran terminales es decir en contraste los motivos humanos ultimos tipicamente tienen la cualidad de requerir un aprendizaje interminable Algunos expertos y academicos han cuestionado el uso de robots para el combate militar especialmente cuando dichos robots reciben cierto grado de funciones autonomas La Marina de los EE UU Ha financiado un informe que indica que a medida que los robots militares se vuelven mas complejos deberia prestarse mayor atencion a las implicaciones de su capacidad para tomar decisiones autonomas El presidente de la Asociacion para el Avance de la Inteligencia Artificial ha encargado un estudio para analizar este tema Apuntan a programas como el Dispositivo de Adquisicion de Idioma que puede emular la interaccion humana Vernor Vinge ha sugerido que puede llegar un momento en que algunas maquinas sean mas inteligentes que los humanos El llama a esto la Singularidad Sugiere que puede ser algo o posiblemente muy peligroso para los humanos Esto es discutido por una filosofia llamada Singularitarianismo El Instituto de Investigacion de Inteligencia Artificial ha sugerido la necesidad de construir IA Amigable lo que significa que los avances que ya estan ocurriendo con la IA tambien deberian incluir un esfuerzo para hacer que la IA sea intrinsecamente amigable y humana En 2009 academicos y expertos tecnicos asistieron a una conferencia organizada por la Asociacion para el Avance de la Inteligencia Artificial para discutir el impacto potencial de los robots y las computadoras y el impacto de la posibilidad hipotetica de que pudieran ser autosuficientes y capaces de tomar sus propias decisiones Discutieron la posibilidad y el grado en que las computadoras y los robots podrian ser capaces de adquirir cualquier nivel de autonomia y en que medida podrian usar tales habilidades para posiblemente representar una amenaza o peligro Observaron que algunas maquinas han adquirido diversas formas de semiautonomia incluyendo la posibilidad de encontrar fuentes de energia por si mismas y poder elegir de forma independiente objetivos para atacar con armas Tambien senalaron que algunos virus informaticos pueden evadir la eliminacion y han logrado la inteligencia de cucarachas Senalaron que la autoconciencia tal como se representa en la ciencia ficcion es probablemente poco probable pero que hay otros peligros potenciales Sin embargo hay una tecnologia en particular que realmente podria traer la posibilidad de robots con competencia moral real En un documento sobre la adquisicion de valores morales por los robots Nayef Al Rodhan menciona el caso de los chips neuromorficos que apuntan a procesar informacion similar a la de los humanos de forma no lineal y con millones de neuronas artificiales interconectadas Los robots integrados con tecnologia neuromorfica podrian aprender y desarrollar conocimiento de una manera unica y humana Inevitablemente esto plantea la cuestion del entorno en el que tales robots aprenderian sobre el mundo y cuya moralidad heredarian o si tambien acabarian desarrollando debilidades humanas egoismo actitud de supervivencia vacilacion etc En Moral Machines Ensenar Robots desde el Mal Wendell Wallach y Colin Allen concluyen que los intentos de ensenar a los robots a distinguir entre el bien y el mal probablemente mejoraran la comprension de la etica humana motivando a los humanos a abordar las lagunas en la teoria normativa moderna y proporcionando una plataforma para investigacion experimental Como un ejemplo ha introducido a los especialistas en etica normativa al tema controvertido de que algoritmos especificos de aprendizaje usar en las maquinas Nick Bostrom y Eliezer Yudkowsky han abogado por arboles de decision como ID3 sobre redes neuronales y algoritmos geneticos sobre la base de que los arboles de decision obedecen las normas sociales modernas de transparencia y predictibilidad p Ej Stare decisis mientras Chris Santos Lang argumento en la direccion opuesta sobre la base de que se debe permitir que las normas de cualquier edad cambien y que la falta natural de satisfacer plenamente estas normas particulares ha sido esencial para hacer que los humanos sean menos vulnerables a los hackers criminales Consecuencias no deseadas EditarInformacion adicional riesgo existencial de la inteligencia artificial generalMuchos investigadores han argumentado que por medio de una explosion de inteligencia en algun momento del siglo XXI una IA que se mejora a si misma podria llegar a ser tan inmensamente mas poderosa que los humanos que no podriamos evitar que logre sus objetivos En su documento Aspectos eticos en la inteligencia artificial avanzada el filosofo Nick Bostrom sostiene que la inteligencia artificial tiene la capacidad de provocar la extincion humana Afirma que la superinteligencia general seria capaz de iniciar sus propios planes y por lo tanto podria considerarse mas apropiadamente como un agente autonomo Como los intelectos artificiales no necesitan compartir nuestras tendencias motivacionales humanas los disenadores de la super inteligencia deberian especificar sus motivaciones originales En teoria una IA superinteligente podria generar casi cualquier resultado posible y frustrar cualquier intento de evitar la implementacion de su objetivo principal podrian surgir muchas consecuencias involuntarias no controladas Podria matar a todos los demas agentes persuadirlos de cambiar su comportamiento o bloquear sus intentos de interferencia Sin embargo en lugar de abrumar a la raza humana y llevar a nuestra destruccion Bostrom tambien ha afirmado que la super inteligencia puede ayudarnos a resolver muchos problemas dificiles como la enfermedad la pobreza y la destruccion ambiental y podria ayudarnos a mejorar a nosotros mismos La gran complejidad de los sistemas de valores humanos hace que sea muy dificil hacer que las motivaciones de IA sean amigables para los humanos A menos que la filosofia moral nos proporcione una teoria etica impecable la funcion de utilidad de una IA podria permitir muchos escenarios potencialmente daninos que se ajusten a un marco etico dado pero no al sentido comun Segun Eliezer Yudkowsky hay pocas razones para suponer que una mente disenada artificialmente tendria tal adaptacion Bill Hibbard propone un diseno de inteligencia artificial que evita varios tipos de comportamiento involuntario de la IA incluido el autoengano las acciones instrumentales involuntarias y la corrupcion del generador de recompensas Amenaza a la dignidad humana EditarArticulo principal Poder del ordenador y razon humanaJoseph Weizenbaum argumento en 1976 que la tecnologia de IA no deberia usarse para reemplazar a las personas en puestos que requieren respeto y cuidado como cualquiera de estos Un representante de servicio al cliente la tecnologia IA ya se usa hoy en dia para los sistemas de respuesta de voz interactiva telefonicas Un terapeuta como fue propuesto por Kenneth Colby en la decada de 1970 Una ninera como lo sugirio Pamela McCorduck en su libro The Fifth Generation Un soldadoUn juezUn oficial de policiaWeizenbaum explica que necesitamos autenticos sentimientos de empatia de las personas en estos puestos Si las maquinas los reemplazan nos encontraremos alienados devaluados y frustrados La inteligencia artificial si se usa de esta manera representa una amenaza para la dignidad humana Weizenbaum argumenta que el hecho de que estemos proponiendonos la posibilidad de maquinas en estas posiciones sugiere que hemos experimentado una atrofia del espiritu humano que proviene de pensar en nosotros mismos como maquinas Pamela McCorduck contesta que hablando en nombre de las mujeres y las minorias Prefiero arriesgarme con una maqina imparcial senalando que hay condiciones en las que prefeririamos tener jueces y policias automatizados que no tengan un gen personal El fundador de AI John McCarthy objeta el tono moralizante de la critica de Weizenbaum Cuando moralizar es a la vez vehemente y vago invita al abuso autoritario escribe Bill Hibbard escribe que La dignidad humana exige que nos esforcemos por eliminar nuestra ignorancia de la naturaleza de la existencia y IA es necesaria para ese esfuerzo Transparencia y codigo abierto EditarBill Hibbard argumenta que debido a que la IA tendra un efecto tan profundo en la humanidad los desarrolladores de IA son representantes de la humanidad futura y por lo tanto tienen la obligacion etica de ser transparentes en sus esfuerzos Ben Goertzel y David Hart crearon OpenCog como un marco de codigo abierto para el desarrollo de inteligencia artificial OpenAI es una compania de investigacion de IA sin fines de lucro creada por Elon Musk Sam Altman y otros para desarrollar IA de codigo abierto beneficiosa para la humanidad Hay muchos otros desarrollos de inteligencia de codigo abierto Estatus moral de las inteligencias artificiales EditarGlobalmente se acepta que las inteligencias artificiales no tienen un estatus moral Es posible modificar programas libremente sin que estos se percaten de lo que esta haciendo por lo que los dilemas morales no son ejercidos sobre el algoritmo sino sobre la gente que utiliza el sistema Hay dos criterios importantes que se toman en cuenta cuando se habla de un estatus moral la sensibilidad y la sapiencia La sensibilidad se refiere a la capacidad de sentir y la sapiencia es un conjunto de caracteristicas que se asocian con un ente de inteligencia superior como la autoconciencia y la respuesta racional Es posible la existencia de un estatus moral parcial como sucede en el caso de los animales quienes sienten pero no tienen sapiencia de ahi que los humanos en comparativa poseen un estatus moral superior Ahora bien si se llega a crear una inteligencia artificial sensible y que ademas posea la misma capacidad de sapiencia de un adulto humano la maquina y el humano tendrian el mismo estatus moral Este concepto se basa en el Principio No Discriminatorio Ontogenico que indica que si dos seres tienen la misma funcionalidad la misma experiencia consciente y solo difieren en el sustrato de su implementacion tienen el mismo estatus moral ya que si se rechaza el sustrato dicho rechazo es equivalente a un repudio por el color de piel o la raza convirtiendolo en racismo El sustrato no dice que una inteligencia artificial es consciente y que pueda tener la misma funcionalidad que un ser humano por lo que el estatus moral no depende de como fueron concebidos los agentes Esta idea es bastante aceptada por las sociedades en general Si estas dos instancias estatutarias son aceptadas entonces se deben de tomar en cuenta el planteamiento de nuevas preguntas eticas Estos nuevos cuestionamientos pueden surgir dado que una mente artificial podria tener comportamientos diferentes a los de un humano o a los de un animal por lo que se debe considerar como dichos comportamientos pueden afectar el estatus moral de las inteligencias artificiales 3 4 La inteligencia artificial aplicadas a las Armas EditarAlgunos expertos y academicos han cuestionado el uso de robots para el combate militar especialmente cuando se les da a estos robots cierto grado de funciones autonomas 5 6 La Marina de Estados Unidos ha financiado un informe que indica que los robots militares se vuelven mas complejos debe prestarse mayor atencion a las implicaciones de su capacidad para tomar decisiones autonomas 7 8 Un investigador afirma que los robots autonomos podrian ser mas humanos ya que podrian tomar decisiones con mayor eficacia Dentro de esta ultima decada ha habido una investigacion intensiva en el poder autonomo con la capacidad de aprender utilizando las responsabilidades morales asignadas Los resultados pueden ser utilizados al disenar futuros robots militares para controlar tendencias no deseadas para asignar responsabilidad a los robots 9 Desde una perspectiva consecuencialista existe la posibilidad de que los robots desarrollen la capacidad de tomar sus propias decisiones logicas sobre quien matar y por eso debe haber un marco moral establecido que la IA no puede anular Ha habido una protesta reciente con respecto a la ingenieria de las armas de la inteligencia artificial y ha incluso fomentado para arriba ideas de una toma de posesion del robot de la humanidad Las armas de la IA presentan un tipo de peligro distinto al de las armas controladas por los seres humanos Muchos gobiernos han comenzado a financiar programas para desarrollar el armamento de AI La Armada de los Estados Unidos anuncio recientemente planes para desarrollar armas autonomas de aviones no tripulados paralelamente a anuncios similares de Rusia y Corea respectivamente Debido a la posibilidad de que las armas de la IA se vuelvan mas peligrosas que las armas humanas Stephen Hawking y Max Tegmark han firmado una peticion de Futuro de la Vida para prohibir las armas de la IA El mensaje publicado por Hawking y Tegmark indica que las armas de la IA representan un peligro inmediato y que se requieren medidas para evitar desastres catastroficos en un futuro proximo 10 Si alguna potencia militar importante avanza con el desarrollo de armas de AI una carrera armamentista mundial es practicamente inevitable y el punto final de esta trayectoria tecnologica es obvio las armas autonomas se convertiran en los Kalashnikov de manana dice la peticion El cofundador de Skype Jaan Tallinn y el profesor de linguistica del MIT Noam Chomsky como partidarios adicionales contra el armamento de la IA 11 El fisico y astronomo Royal Sir Martin Rees advirtio de casos catastroficos como robots mudos que se hacen picaros o una red que desarrolla una mente propia Huw Price un colega de Rees en Cambridge ha expresado una advertencia similar de que los seres humanos pueden no sobrevivir cuando la inteligencia escapa a las limitaciones de la biologia Estos dos profesores crearon el Centro para el Estudio del Riesgo Existencial en la Universidad de Cambridge con la esperanza de evitar esta amenaza a la existencia humana En cuanto al potencial de sistemas militares mas inteligentes que los militares el Proyecto Open Philanthropy escribe que este escenario parece ser importante como riesgos relacionados con el control pero que las organizaciones de investigacion que investigan el impacto social de largo plazo de AI tienen MIRI Y el Instituto del Futuro de la Humanidad FHI que ha sido un foco importante para las organizaciones que han estado activas en este espacio como el Instituto de Investigacion de Inteligencia de Maquina MIRI y parece haber habido menos analisis y debate Respecto a ellos 12 Organizaciones EditarAmazon Google Facebook IBM y Microsoft han establecido una asociacion sin fines de lucro para formular las mejores practicas en tecnologias de inteligencia artificial mejorar la comprension del publico y servir como una plataforma sobre inteligencia artificial Ellos declararon Esta asociacion en AI conducira investigaciones organizara discusiones proporcionara liderazgo de pensamiento consultara con terceros relevantes respondera preguntas del publico y medios y creara material educativo que fomentara la comprension de las tecnologias de inteligencia artificial incluida la percepcion de la maquina el aprendizaje y razonamiento automatizado Apple se unio a otras companias tecnologicas como miembro fundador de la Alianza de AI en enero de 2017 Los miembros corporativos haran contribuciones financieras y de investigacion al grupo mientras se comprometen con la comunidad cientifica para llevar academicos al tablero En muchos paises ademas se estan creando fundaciones y asociaciones independientes para intentar profundizar en el desarrollo de los aspectos eticos de los desarrollos en inteligencia artificial y en robotica Por ejemplo el 17 de septiembre de 2019 se presento en Madrid Espana OdiseIA Observatorio del Impacto Social y Etico de la Inteligencia Artificial En ficcion EditarLa pelicula The Thirteenth Floor sugiere un futuro donde los mundos simulados con habitantes sensibles son creados por consolas de juegos de computadora con el proposito de entretenimiento La pelicula The Matrix sugiere un futuro donde las especies dominantes en el planeta Tierra son maquinas sensibles y la humanidad es tratada con el maximo especismo El cuento The Planck Dive sugiere un futuro en el que la humanidad se ha convertido en un software que se puede duplicar y optimizar y la distincion relevante entre los tipos de software es consciente y no sensible La misma idea se puede encontrar en el Emergency Medical Hologram de Starship Voyager que es una copia aparentemente sensible de un subconjunto reducido de la conciencia de su creador el Dr Zimmerman quien por los mejores motivos ha creado el sistema para dar informacion medica asistencia en caso de emergencias Las peliculas Bicentennial Man y A I lidiar con la posibilidad de robots sensibles que puedan amar Yo Robot explore algunos aspectos de las tres leyes de Asimov Todos estos escenarios intentan prever consecuencias posiblemente no eticas de la creacion de computadoras sensibles La etica de la inteligencia artificial es uno de varios temas centrales en la serie de juegos Mass Effect de BioWare Explora el escenario de una civilizacion que accidentalmente crea IA a traves de un aumento rapido en el poder computacional a traves de una red neuronal a escala global Este evento provoco un cisma etico entre aquellos que consideraban que otorgar derechos organicos a Geth nuevamente consciente era apropiado y aquellos que continuaron viendolos como maquinaria desechable y lucharon para destruirlos Mas alla del conflicto inicial la complejidad de la relacion entre las maquinas y sus creadores es otro tema recurrente a lo largo de la historia Con el tiempo los debates han tendido a centrarse cada vez menos en la posibilidad y mas en la deseabilidad como se enfatiza en los debates Cosmista y Terran iniciados por Hugo de Garis y Kevin Warwick Un cosmista segun Hugo de Garis en realidad esta buscando construir sucesores mas inteligentes para la especie humana Literatura EditarLa bibliografia estandar de la etica de la inteligencia artificial en PhilPapers Una reciente coleccion es V C Muller ed 2016 Referencias Editar 1 Andreas Kaplan 2020 Artificial Intelligence Emphasis on Ethics and Education International Journal of Swarm Intelligence and Evolutionary Computation 9 3 DAVIES J Program good ethics into artificial intelligence Bibliografia Davies J 2016 Program good ethics into artificial intelligence Nature Accessed 1 Nov 2017 a b c Ethics of Artificial Intelligence Archivado desde el original el 4 de marzo de 2016 Consultado el 17 de marzo de 2016 Robotics Ethics of artificial intelligence Consultado el 17 de marzo de 2016 Robot Three Way Portends Autonomous Future By David Axe wired com August 13 2009 Call for debate on killer robots By Jason Palmer Science and technology reporter BBC News 8 3 09 New Navy funded Report Warns of War Robots Going Terminator Archivado el 28 de julio de 2009 en Wayback Machine by Jason Mick Blog dailytech com February 17 2009 Navy report warns of robot uprising suggests a strong moral compass by Joseph L Flatley engadget com Feb 18th 2009 http search proquest com docview 1372020233 Zach Musgrave and Bryan W Roberts Why Artificial Intelligence Can Too Easily Be Weaponized The Atlantic The Atlantic Cat Zakrzewski Musk Hawking Warn of Artificial Intelligence Weapons WSJ GiveWell 2015 Potential risks from advanced artificial intelligence consultado el 11 de octubre de 2015 Datos Q12727779 Obtenido de https es wikipedia org w index php title Etica en la inteligencia artificial amp oldid 145670596, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos