fbpx
Wikipedia

Responsabilidad moral

La responsabilidad moral es aquella en la que se toma responsabilidad sobre un suceso específico o persona, poniendo la moral por encima de lo demás. Se trata entonces de la responsabilidad que se relaciona con las acciones y su valor moral. Desde una ética consecuencialista, dicho valor será dependiente de las consecuencias de tales acciones. Sea entonces al daño causado a un individuo, a un grupo o a la sociedad entera por las acciones o las no-acciones de otro individuo o grupo.

En una ética deontológica, en cambio, tales acciones tendrán un valor intrínseco, independiente de sus consecuencias. Desde esta perspectiva, es un sistema de principios y de juicios compartidos por los conceptos y las creencias culturales, religiosas y filosóficas, lo que determina si algunas acciones dadas son correctas o incorrectas. Estos conceptos son generalizados y codificados a menudo por una cultura o un grupo, y sirven así para regular el comportamiento de sus miembros. De conformidad a tal codificación se le puede también llamar moralidad, y el grupo puede depender de una amplia conformidad a tales códigos para su existencia duradera.

Desde el punto de vista de la organización social, la responsabilidad moral se diferencia de la responsabilidad jurídica por su carácter interno. La responsabilidad moral se refiere principalmente al carácter interno de las conductas (la conciencia o intención de quien ha actuado), sin importar aspectos externos como el hecho de que éstas hayan sido descubiertas o sancionadas. Por el contrario, los procesos jurídicos no son necesariamente procesos de intención (por ejemplo, la prescripción del delito de robo por el mero transcurso del tiempo puede invalidar la responsabilidad jurídica sin invalidar la responsabilidad moral).

La responsabilidad moral ocupa un lugar cada vez más importante en la opinión pública cuando la adjudicación de la responsabilidad jurídica a través de los tribunales es insuficiente para cerrar casos como son, por ejemplo, escándalos de corrupción ligados al ocultamiento de cifras en la contabilidad de empresas, derramamiento de petróleo en zonas naturales, financiamientos ilegales de campañas y escándalos de corrupción política.

El término aparece también en la discusión de temas como determinismo o libre albedrío, puesto que sin la libertad es difícil ser culpado por las propias acciones, y sin esta responsabilidad moral la naturaleza del castigo y la ética se convierten en una interrogante.

Sistemas Artificiales

La aparición de la automatización, la robótica y las tecnologías relacionadas suscitó la pregunta: "¿Puede un sistema artificial ser moralmente responsable?"[1][2][3]​ La pregunta tiene una variante estrechamente relacionada: "Cuando (si alguna vez) Desde su (s) creador (es) humano (s) hasta el sistema? "[4][5]

Las preguntas, sin lugar a dudas, se unen con la ética de la máquina, pero se distinguen de ella, que se refiere al comportamiento moral de los sistemas artificiales. Si el comportamiento de un sistema artificial lo califica para ser moralmente responsable ha sido un enfoque clave del debate.

Argumentos que los sistemas artificiales no pueden ser moralmente responsables

Batya Friedman y Peter Kahn Jr postularon que la intencionalidad es una condición necesaria para la responsabilidad moral y que los sistemas informáticos concebibles en 1992 en material y estructura no podrían tener intencionalidad .[6]

Arthur Kuflik afirmó que los seres humanos deben asumir la última responsabilidad moral por las decisiones de una computadora, ya que son los seres humanos quienes diseñan las computadoras y escriben sus programas. Propuso además que los seres humanos nunca pueden renunciar a la vigilancia de las computadoras.

Frances Grodzinsky et al. Considerados sistemas artificiales que podrían modelarse como máquinas de estado finito. Ellos postularon que si la máquina tenía una tabla de transición de estado fijo, entonces no podría ser moralmente responsable. Si la máquina pudiera modificar su mesa, entonces el diseñador de la máquina todavía conserva cierta responsabilidad moral.

Patrick Hew argumentó que para que un sistema artificial sea moralmente responsable, sus reglas de conducta y los mecanismos para suministrar esas reglas no deben ser suministrados enteramente por seres humanos externos. Además, argumentó que estos sistemas son una diferencia sustancial de las tecnologías y la teoría existentes en 2014. Un sistema artificial basado en esas tecnologías no tendrá responsabilidad por su comportamiento. La responsabilidad moral se reparte entre los seres humanos que crearon y programaron el sistema.[7]

(Se puede encontrar una revisión más extensa de los argumentos en[7]​).

Argumentos que los sistemas artificiales pueden ser moralmente responsables

Colin Allen et al. Propuso que un sistema artificial puede ser moralmente responsable si sus comportamientos son funcionalmente indistinguibles de una persona moral, acuñando la idea de una "Prueba Moral de Turing". [35] Posteriormente, desautorizaron la Prueba Moral de Turing en reconocimiento de las controversias que rodeaban la Prueba de Turing.

Andreas Matthias describió una "brecha de responsabilidad" en la que responsabilizar a los seres humanos de una máquina sería una injusticia, pero sostener la máquina responsable desafiaría las formas "tradicionales" de adscripción. Propuso tres casos en los que el comportamiento de la máquina debía atribuirse a la máquina y no a sus diseñadores u operadores. En primer lugar, argumentó que las máquinas modernas son intrínsecamente impredecibles (hasta cierto punto), pero realizan tareas que deben realizarse pero que no pueden ser manejadas por medios más sencillos. Segundo, que hay cada vez más "capas de oscuridad" entre los fabricantes y el sistema, ya que los programas codificados a mano se sustituyen por medios más sofisticados. Tercero, en sistemas que tienen reglas de operación que pueden ser cambiadas durante el funcionamiento de la máquina.[8]

(Se puede encontrar una revisión más extensa de los argumentos en[7]​).

Referencias

  1. Allen, Colin; Varner, Gary; Zinser, Jason (2000). «Prolegomena to any future artificial moral agent». Journal of Experimental & Theoretical Artificial Intelligence 12 (3): 251-261. doi:10.1080/09528130050111428. 
  2. Allen, Colin; Smit, Iva; Wallach, Wendell (September 2005). «Artificial Morality: Top-down, Bottom-up and Hybrid Approaches». Ethics and Information Technology 7 (3): 149-155. doi:10.1007/s10676-006-0004-4. 
  3. Sparrow, Robert (2007). «Killer Robots». Journal of Applied Philosophy 24 (1): 62-77. doi:10.1111/j.1468-5930.2007.00346.x. 
  4. Grodzinsky, Frances S.; Miller, Keith W.; Wolf, Marty J. (21 de junio de 2008). «The ethics of designing artificial agents». Ethics and Information Technology 10 (2-3): 115-121. 
  5. Kuflik, Arthur (1999). «Computers in control: Rational transfer of authority or irresponsible abdication of autonomy?». Ethics and Information Technology 1 (3): 173-184. doi:10.1023/A:1010087500508. 
  6. Friedman, Batya; Kahn, Jr., Peter H. «Human Agency and Responsible Computing: Implications for Computer Sesten Design». Jornal off Sistemas and Software date=Janear 1992 17 (1): 7-14. doi:10.1016/0164-1212(92)90075-u. 
  7. Hew, Patrick Chisan (13 de mayo de 2014). «Artificial moral agents are infeasible with foreseeable technologies». Ethics and Information Technology 16 (3): 197-206. doi:10.1007/s10676-014-9345-6. 
  8. Matthias, Andreas (2004). «The responsibility gap: Ascribing responsibility for the actions of learning automata». Ethics and Information Technology 6 (3): 175-183. doi:10.1007/s10676-004-3422-1. 

Notas al pie

  • Collective Moral Responsibility desde Internet Encyclopedia of Philosophy (en inglés)
  • Aristotle on Moral Responsibility, (en inglés)

Véase también

  •   Datos: Q5190255

responsabilidad, moral, responsabilidad, moral, aquella, toma, responsabilidad, sobre, suceso, específico, persona, poniendo, moral, encima, demás, trata, entonces, responsabilidad, relaciona, acciones, valor, moral, desde, ética, consecuencialista, dicho, val. La responsabilidad moral es aquella en la que se toma responsabilidad sobre un suceso especifico o persona poniendo la moral por encima de lo demas Se trata entonces de la responsabilidad que se relaciona con las acciones y su valor moral Desde una etica consecuencialista dicho valor sera dependiente de las consecuencias de tales acciones Sea entonces al dano causado a un individuo a un grupo o a la sociedad entera por las acciones o las no acciones de otro individuo o grupo En una etica deontologica en cambio tales acciones tendran un valor intrinseco independiente de sus consecuencias Desde esta perspectiva es un sistema de principios y de juicios compartidos por los conceptos y las creencias culturales religiosas y filosoficas lo que determina si algunas acciones dadas son correctas o incorrectas Estos conceptos son generalizados y codificados a menudo por una cultura o un grupo y sirven asi para regular el comportamiento de sus miembros De conformidad a tal codificacion se le puede tambien llamar moralidad y el grupo puede depender de una amplia conformidad a tales codigos para su existencia duradera Desde el punto de vista de la organizacion social la responsabilidad moral se diferencia de la responsabilidad juridica por su caracter interno La responsabilidad moral se refiere principalmente al caracter interno de las conductas la conciencia o intencion de quien ha actuado sin importar aspectos externos como el hecho de que estas hayan sido descubiertas o sancionadas Por el contrario los procesos juridicos no son necesariamente procesos de intencion por ejemplo la prescripcion del delito de robo por el mero transcurso del tiempo puede invalidar la responsabilidad juridica sin invalidar la responsabilidad moral La responsabilidad moral ocupa un lugar cada vez mas importante en la opinion publica cuando la adjudicacion de la responsabilidad juridica a traves de los tribunales es insuficiente para cerrar casos como son por ejemplo escandalos de corrupcion ligados al ocultamiento de cifras en la contabilidad de empresas derramamiento de petroleo en zonas naturales financiamientos ilegales de campanas y escandalos de corrupcion politica El termino aparece tambien en la discusion de temas como determinismo o libre albedrio puesto que sin la libertad es dificil ser culpado por las propias acciones y sin esta responsabilidad moral la naturaleza del castigo y la etica se convierten en una interrogante Indice 1 Sistemas Artificiales 1 1 Argumentos que los sistemas artificiales no pueden ser moralmente responsables 1 2 Argumentos que los sistemas artificiales pueden ser moralmente responsables 2 Referencias 2 1 Notas al pie 3 Vease tambienSistemas Artificiales EditarLa aparicion de la automatizacion la robotica y las tecnologias relacionadas suscito la pregunta Puede un sistema artificial ser moralmente responsable 1 2 3 La pregunta tiene una variante estrechamente relacionada Cuando si alguna vez Desde su s creador es humano s hasta el sistema 4 5 Las preguntas sin lugar a dudas se unen con la etica de la maquina pero se distinguen de ella que se refiere al comportamiento moral de los sistemas artificiales Si el comportamiento de un sistema artificial lo califica para ser moralmente responsable ha sido un enfoque clave del debate Argumentos que los sistemas artificiales no pueden ser moralmente responsables Editar Batya Friedman y Peter Kahn Jr postularon que la intencionalidad es una condicion necesaria para la responsabilidad moral y que los sistemas informaticos concebibles en 1992 en material y estructura no podrian tener intencionalidad 6 Arthur Kuflik afirmo que los seres humanos deben asumir la ultima responsabilidad moral por las decisiones de una computadora ya que son los seres humanos quienes disenan las computadoras y escriben sus programas Propuso ademas que los seres humanos nunca pueden renunciar a la vigilancia de las computadoras Frances Grodzinsky et al Considerados sistemas artificiales que podrian modelarse como maquinas de estado finito Ellos postularon que si la maquina tenia una tabla de transicion de estado fijo entonces no podria ser moralmente responsable Si la maquina pudiera modificar su mesa entonces el disenador de la maquina todavia conserva cierta responsabilidad moral Patrick Hew argumento que para que un sistema artificial sea moralmente responsable sus reglas de conducta y los mecanismos para suministrar esas reglas no deben ser suministrados enteramente por seres humanos externos Ademas argumento que estos sistemas son una diferencia sustancial de las tecnologias y la teoria existentes en 2014 Un sistema artificial basado en esas tecnologias no tendra responsabilidad por su comportamiento La responsabilidad moral se reparte entre los seres humanos que crearon y programaron el sistema 7 Se puede encontrar una revision mas extensa de los argumentos en 7 Argumentos que los sistemas artificiales pueden ser moralmente responsables Editar Colin Allen et al Propuso que un sistema artificial puede ser moralmente responsable si sus comportamientos son funcionalmente indistinguibles de una persona moral acunando la idea de una Prueba Moral de Turing 35 Posteriormente desautorizaron la Prueba Moral de Turing en reconocimiento de las controversias que rodeaban la Prueba de Turing Andreas Matthias describio una brecha de responsabilidad en la que responsabilizar a los seres humanos de una maquina seria una injusticia pero sostener la maquina responsable desafiaria las formas tradicionales de adscripcion Propuso tres casos en los que el comportamiento de la maquina debia atribuirse a la maquina y no a sus disenadores u operadores En primer lugar argumento que las maquinas modernas son intrinsecamente impredecibles hasta cierto punto pero realizan tareas que deben realizarse pero que no pueden ser manejadas por medios mas sencillos Segundo que hay cada vez mas capas de oscuridad entre los fabricantes y el sistema ya que los programas codificados a mano se sustituyen por medios mas sofisticados Tercero en sistemas que tienen reglas de operacion que pueden ser cambiadas durante el funcionamiento de la maquina 8 Se puede encontrar una revision mas extensa de los argumentos en 7 Referencias Editar Allen Colin Varner Gary Zinser Jason 2000 Prolegomena to any future artificial moral agent Journal of Experimental amp Theoretical Artificial Intelligence 12 3 251 261 doi 10 1080 09528130050111428 Allen Colin Smit Iva Wallach Wendell September 2005 Artificial Morality Top down Bottom up and Hybrid Approaches Ethics and Information Technology 7 3 149 155 doi 10 1007 s10676 006 0004 4 Sparrow Robert 2007 Killer Robots Journal of Applied Philosophy 24 1 62 77 doi 10 1111 j 1468 5930 2007 00346 x Grodzinsky Frances S Miller Keith W Wolf Marty J 21 de junio de 2008 The ethics of designing artificial agents Ethics and Information Technology 10 2 3 115 121 Kuflik Arthur 1999 Computers in control Rational transfer of authority or irresponsible abdication of autonomy Ethics and Information Technology 1 3 173 184 doi 10 1023 A 1010087500508 Friedman Batya Kahn Jr Peter H Human Agency and Responsible Computing Implications for Computer Sesten Design Jornal off Sistemas and Software date Janear 1992 17 1 7 14 doi 10 1016 0164 1212 92 90075 u a b c Hew Patrick Chisan 13 de mayo de 2014 Artificial moral agents are infeasible with foreseeable technologies Ethics and Information Technology 16 3 197 206 doi 10 1007 s10676 014 9345 6 Matthias Andreas 2004 The responsibility gap Ascribing responsibility for the actions of learning automata Ethics and Information Technology 6 3 175 183 doi 10 1007 s10676 004 3422 1 Notas al pie Editar Collective Moral Responsibility desde Internet Encyclopedia of Philosophy en ingles Aristotle on Moral Responsibility en ingles Vease tambien EditarLibre albedrio Responsabilidad Datos Q5190255 Obtenido de https es wikipedia org w index php title Responsabilidad moral amp oldid 140865643, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos