fbpx
Wikipedia

Fiabilidad humana

Es una disciplina que forma parte del campo de la fiabilidad de sistemas, en la medida en que el hombre puede ser considerado como parte integrante de un sistema.

Se considera que el componente humano es de una complejidad mucho mayor que cualquier otro componente y, por tanto, las técnicas aplicables al estudio de la fiabilidad humana o, complementariamente, del error humano son específicos e integran aspectos psicológicos y organizacionales a las habituales técnicas matemáticas.

Técnicas de análisis de la fiabilidad humana

Existen una variedad de métodos para el análisis de la fiabilidad humana (HRA - human reliability analysis),[1][2]​ principalmente divididos en dos categorías: los basados en el análisis probabilístico de riesgos y la teoría del control cognitivo.

Técnicas basadas en análisis probabilístico de riesgos

Una forma de analizar la fiabilidad humana es como extensión directa del análisis probabilístico de riesgos (en inglés, probabilistic risk assessment -PRA-): de la misma forma que las máquinas pueden fallar en una planta industrial, una persona cometer errores. En ambos casos el análisis por descomposición funcional proporciona un cierto nivel de detalle con el que asignar probabilidades de ocurrencia del error. Esta idea básica está detrás de la técnica THERP (Technique for Human Error Rate Prediction),[3]​ que pretende calcular probabilidades de error humano incorporables a un análisis PRA. Una forma simplificada de THERP es la técnica ASEP (Accident Sequence Evaluation Program), que ha sido implementada como herramienta informática: Simplified Human Error Analysis Code (SHEAN).[4]​ Más recientemente More recently, la US Nuclear Regulatory Commission ha publicado el método de análisis SPAR (Standardized Plant Analysis Risk).[5][6]

Técnicas basadas en el control cognitivo

Erik Hollnagel ha desarrollado esta línea de trabajo, que denomina Contextual Control Model (COCOM),[7]​ y ha desarrollado el método CREAM (Cognitive Reliability and Error Analysis Method).[8]​ COCOM modela el comportamiento humano como un conjunto de modos de control y propone un modelo de cómo ocurren las transiciones entre los distintos modos de control.

Error humano

El error humano ha sido citado como causante o factor contributivo en desastres y accidentes en industrias diversas como energía nuclear, aviación, exploración espacial y medicina.

Categorías de error humano

Hay diversos modos de categorización del error humano:[9][10]

  • Exógeno / endógeno[11]
  • Valoración de la situación / respuesta planificada[12]
  • Por nivel de análisis; por ejemplo: perceptivo / cognitivo / comunicativo / organizativo.

Sistema de Análisis y Clasificación de Factores Humanos

El 'Sistema de Análisis y Clasificación de Factores Humanos' (en inglés Human Factors Analysis and Classification System -HFACS-) fue desarrollado inicialmente como marco de trabajo para la comprensión del error humano como causa de accidentes de aviación.[13][14]​ Está basado los estudios de James Reason's sobre error humano en sistemas complejos. HFACS distingue entre "fallos activos" en acciones inseguras, "fallos latentes", supervisión insegura e influencias de la organización.

Controversia

Algunos investigadores han argumentado que la catalogación de las acciones humanas en términos de "correcto" o "incorrecto" es una simplificación excesiva y perjudicial para el análisis de un fenómeno complejo.[15][16]​ En lugar de eso, defienden que sería más fructífero enfocar la cuestión desde el punto de vista de la variabilidad del comportamiento humano.

Véase también

Notas

  1. Kirwan and Ainsworth, 1992
  2. Kirwan, 1994
  3. Swain & Guttman, 1983
  4. Wilson, 1993)
  5. SPAR-H
  6. Gertman et al., 2005
  7. (Hollnagel, 1993)
  8. (Hollnagel, 1998)
  9. Jones, 1999
  10. Wallace and Ross, 2006
  11. Senders and Moray, 1991
  12. Roth et al., 1994
  13. Shappell and Wiegmann, 2000
  14. Wiegmann and Shappell, 2003
  15. Hollnagel, E. (1983). Human error. (Position Paper for NATO Conference on Human Error, August 1983, Bellagio, Italy)
  16. Hollnagel, E. and Amalberti, R. (2001). The Emperor’s New Clothes, or whatever happened to “human error”? Invited keynote presentation at 4th International Workshop on Human Error, Safety and System Development.. Linköping, June 11-12, 2001.

Referencias

  • Gertman, D. L. and Blackman, H. S. (2001). Human reliability and safety analysis data handbook. Wiley. 
  • Gertman, D., Blackman, H., Marble, J., Byers, J. and Smith, C. (2005). The SPAR-H human reliability analysis method. NUREG/CR-6883. Idaho National Laboratory, prepared for U. S. Nuclear Regulatory Commission. [1]
  • Hollnagel, E. (1993). Human reliability analysis: Context and control. Academic Press. 
  • Hollnagel, E. (1998). Cognitive reliability and error analysis method: CREAM. Elsevier. 
  • Hollnagel, E. and Amalberti, R. (2001). The Emperor’s New Clothes, or whatever happened to “human error”? Invited keynote presentation at 4th International Workshop on Human Error, Safety and System Development. Linköping, June 11-12, 2001. 
  • Hollnagel, E., Woods, D. D., and Leveson, N. (Eds.) (2006). Resilience engineering: Concepts and precepts. Ashgate. 
  • Jones, P. M. (1999). Human error and its amelioration. In Handbook of Systems Engineering and Management (A. P. Sage and W. B. Rouse, eds.), 687-702. Wiley. 
  • Kirwan, B. (1994). A Guide to Practical Human Reliability Assessment. Taylor & Francis. 
  • Kirwan, B. and Ainsworth, L. (Eds.) (1992). A guide to task analysis. Taylor & Francis. 
  • Norman, D. (1988). The psychology of everyday things. Basic Books. 
  • Reason, J. (1990). Human error. Cambridge University Press. 
  • Roth, E. et al. (1994). An empirical investigation of operator performance in cognitive demanding simulated emergencies. NUREG/CR-6208, Westinghouse Science and Technology Center. Report prepared for Nuclear Regulatory Commission. 
  • Sage, A. P. (1992). Systems engineering. Wiley. 
  • Senders, J. and Moray, N. (1991). Human error: Cause, prediction, and reduction. Lawrence Erlbaum Associates. 
  • Shappell, S. & Wiegmann, D. (2000). The human factors analysis and classification system - HFACS. DOT/FAA/AM-00/7, Office of Aviation Medicine, Federal Aviation Administration, Department of Transportation. 
  • Swain, A. D., & Guttman, H. E. (1983). Handbook of human reliability analysis with emphasis on nuclear power plant applications. NUREG/CR-1278 (Washington D.C.). 
  • Wallace, B. and Ross, A. (2006). Beyond human error. CRC Press. 
  • Wiegmann, D. & Shappell, S. (2003). A human error approach to aviation accident analysis: The human factors analysis and classification system. Ashgate. 
  • Wilson, J.R. (1993). SHEAN (Simplified Human Error Analysis code) and automated THERP. United States Department of Energy Technical Report Number WINCO--11908.  [3]
  • Woods, D. D. (1990). Modeling and predicting human error. In J. Elkind, S. Card, J. Hochberg, and B. Huey (Eds.), Human performance models for computer-aided engineering (248-274). Academic Press. 

Saber más

  • Autrey, T.D. (2007). editorial=Practicing Perfection Institute Mistake-Proofing Six Sigma: How to Minimize Project Scope and Reduce Human Error. 
  • Davies, J.B., Ross, A., Wallace, B. and Wright, L. (2003). Safety Management: a Qualitative Systems Approach. Taylor and Francis. 
  • Dekker, S.W.A., (2005). Ten Questions About Human Error: a new view of human factors and systems safety]. Lawrence Erlbaum Associates. 
  • Dekker, S.W.A., (2006). The Field Guide to Understanding Human Error. Ashgate. 
  • Dekker, S.W.A., (2007). Just Culture: Balancing Safety and Accountability. Ashgate. 
  • Dismukes, R. K., Berman, B. A., and Loukopoulos, L. D. (2007). The limits of expertise: Rethinking pilot error and the causes of airline accidents. Ashgate. 
  • Forester, J., Kolaczkowski, A., Lois, E., and Kelly, D. (2006). Evaluation of human reliability analysis methods against good practices. NUREG-1842 Final Report. U. S. Nuclear Regulatory Commission.  [4]
  • Goodstein, L. P., Andersen, H. B., and Olsen, S. E. (Eds.) (1988). Tasks, errors, and mental models. Taylor and Francis. 
  • Grabowski, M. and Roberts, K. H. (1996). Human and organizational error in large scale systems , IEEE Transactions on Systems, Man, and Cybernetics, Volume 26, No. 1, January 1996, 2-16. 
  • Greenbaum, J. and Kyng, M. (Eds.) (1991). Design at work: Cooperative design of computer systems. Lawrence Erlbaum Associates. 
  • Harrison, M. (2004). Human error analysis and reliability assessment. Workshop on Human Computer Interaction and Dependability, 46th IFIP Working Group 10.4 Meeting, Siena, Italy, July 3-7, 2004.  [5]
  • Hollnagel, E. (1991). The phenotype of erroneous actions: Implications for HCI design. In G. W. R. Weir and J. L. Alty (Eds.), Human-computer interaction and complex systems'. Academic Press. 
  • Hutchins, E. (1995). Cognition in the wild. MIT Press. 
  • Kahneman, D., Slovic, P. and Tversky, A. (Eds.) (1982). Judgment under uncertainty: Heuristics and biases. Cambridge University Press. 
  • Leveson, N. (1995). Safeware: System safety and computers. Addison-Wesley. 
  • Morgan, G. (1986). Images of organization. Sage. 
  • Mura, S. S. (1983). Licensing violations: Legitimate violations of Grice's conversational principle. In R. Craig and K. Tracy (Eds.), Conversational coherence: Form, structure, and strategy (101-115). Sage. 
  • Perrow, C. (1984). Normal accidents: Living with high-risk technologies. Basic Books. 
  • Rasmussen, J. (1983). Skills, rules, and knowledge: Signals, signs, and symbols and other distinctions in human performance models. IEEE Transactions on Systems, Man, and Cybernetics, SMC-13, 257-267. 
  • Rasmussen, J. (1986). Information processing and human-machine interaction: An approach to cognitive engineering. Wiley. 
  • Silverman, B. (1992). Critiquing human error: A knowledge-based human-computer collaboration approach. Academic Press. 
  • Swets, J. (1996). Signal detection theory and ROC analysis in psychology and diagnostics: Collected papers. Lawrence Erlbaum Associates. 
  • Tversky, A. and Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185, 1124-1131. 
  • Vaughan, D. (1996). The Challenger launch decision: Risky technology, culture, and deviance at NASA. University of Chicago Press. 
  • Wallace, B. and Ross, A. (2006). Beyond human error. CRC Press. 
  • Woods, D. D., Johannesen, L., Cook, R., and Sarter, N. (1994). Behind human error: Cognitive systems, computers, and hindsight. CSERIAC SOAR Report 94-01. Crew Systems Ergonomics Information Analysis Center, Wright-Patterson Air Force Base, Ohio. 

Enlaces externos

Documentos de estandarización y guías

  • IEEE Standard 1082 (1997): IEEE Guide for Incorporating Human Action Reliability Analysis for Nuclear Power Generating Stations (enlace roto disponible en Internet Archive; véase el historial, la primera versión y la última).

Herramientas

  • Eurocontrol Human Error Tools

Centros de investigación

  • Erik Hollnagel en el en
  • Human Reliability Analysis en el Laboratorio Nacional de Sandia de Estados Unidos.
  • en el Laboratorio Nacional Oak Ridge de Estados Unidos.
  • Flight Cognition Laboratory en el NASA Ames Research Center
  • en el en la Ohio State University
  • Sidney Dekker's Leonardo da Vinci Laboratory for Complexity and Systems Thinking, Lund University, Sweden
  • ESM, Safety and Human Factors Investigation Institute

Reportajes

  • “Human Reliability. We break down just like machines“ el 20 de mayo de 2008 en Wayback Machine. Industrial Engineer - November 2004, 36(11): 66
  •   Datos: Q186289

fiabilidad, humana, disciplina, forma, parte, campo, fiabilidad, sistemas, medida, hombre, puede, considerado, como, parte, integrante, sistema, considera, componente, humano, complejidad, mucho, mayor, cualquier, otro, componente, tanto, técnicas, aplicables,. Es una disciplina que forma parte del campo de la fiabilidad de sistemas en la medida en que el hombre puede ser considerado como parte integrante de un sistema Se considera que el componente humano es de una complejidad mucho mayor que cualquier otro componente y por tanto las tecnicas aplicables al estudio de la fiabilidad humana o complementariamente del error humano son especificos e integran aspectos psicologicos y organizacionales a las habituales tecnicas matematicas Indice 1 Tecnicas de analisis de la fiabilidad humana 1 1 Tecnicas basadas en analisis probabilistico de riesgos 1 2 Tecnicas basadas en el control cognitivo 2 Error humano 2 1 Categorias de error humano 2 2 Sistema de Analisis y Clasificacion de Factores Humanos 2 3 Controversia 3 Vease tambien 4 Notas 5 Referencias 6 Saber mas 7 Enlaces externos 7 1 Documentos de estandarizacion y guias 7 2 Herramientas 7 3 Centros de investigacion 7 4 ReportajesTecnicas de analisis de la fiabilidad humana EditarExisten una variedad de metodos para el analisis de la fiabilidad humana HRA human reliability analysis 1 2 principalmente divididos en dos categorias los basados en el analisis probabilistico de riesgos y la teoria del control cognitivo Tecnicas basadas en analisis probabilistico de riesgos Editar Una forma de analizar la fiabilidad humana es como extension directa del analisis probabilistico de riesgos en ingles probabilistic risk assessment PRA de la misma forma que las maquinas pueden fallar en una planta industrial una persona cometer errores En ambos casos el analisis por descomposicion funcional proporciona un cierto nivel de detalle con el que asignar probabilidades de ocurrencia del error Esta idea basica esta detras de la tecnica THERP Technique for Human Error Rate Prediction 3 que pretende calcular probabilidades de error humano incorporables a un analisis PRA Una forma simplificada de THERP es la tecnica ASEP Accident Sequence Evaluation Program que ha sido implementada como herramienta informatica Simplified Human Error Analysis Code SHEAN 4 Mas recientemente More recently la US Nuclear Regulatory Commission ha publicado el metodo de analisis SPAR Standardized Plant Analysis Risk 5 6 Tecnicas basadas en el control cognitivo Editar Erik Hollnagel ha desarrollado esta linea de trabajo que denomina Contextual Control Model COCOM 7 y ha desarrollado el metodo CREAM Cognitive Reliability and Error Analysis Method 8 COCOM modela el comportamiento humano como un conjunto de modos de control y propone un modelo de como ocurren las transiciones entre los distintos modos de control Error humano EditarEl error humano ha sido citado como causante o factor contributivo en desastres y accidentes en industrias diversas como energia nuclear aviacion exploracion espacial y medicina Categorias de error humano Editar Hay diversos modos de categorizacion del error humano 9 10 Exogeno endogeno 11 Valoracion de la situacion respuesta planificada 12 Por nivel de analisis por ejemplo perceptivo cognitivo comunicativo organizativo Sistema de Analisis y Clasificacion de Factores Humanos Editar El Sistema de Analisis y Clasificacion de Factores Humanos en ingles Human Factors Analysis and Classification System HFACS fue desarrollado inicialmente como marco de trabajo para la comprension del error humano como causa de accidentes de aviacion 13 14 Esta basado los estudios de James Reason s sobre error humano en sistemas complejos HFACS distingue entre fallos activos en acciones inseguras fallos latentes supervision insegura e influencias de la organizacion Controversia Editar Algunos investigadores han argumentado que la catalogacion de las acciones humanas en terminos de correcto o incorrecto es una simplificacion excesiva y perjudicial para el analisis de un fenomeno complejo 15 16 En lugar de eso defienden que seria mas fructifero enfocar la cuestion desde el punto de vista de la variabilidad del comportamiento humano Vease tambien EditarError humano HEART THERP SLIM SHARP SHERPANotas Editar Kirwan and Ainsworth 1992 Kirwan 1994 Swain amp Guttman 1983 Wilson 1993 SPAR H Gertman et al 2005 Hollnagel 1993 Hollnagel 1998 Jones 1999 Wallace and Ross 2006 Senders and Moray 1991 Roth et al 1994 Shappell and Wiegmann 2000 Wiegmann and Shappell 2003 Hollnagel E 1983 Human error Position Paper for NATO Conference on Human Error August 1983 Bellagio Italy Hollnagel E and Amalberti R 2001 The Emperor s New Clothes or whatever happened to human error Invited keynote presentation at 4th International Workshop on Human Error Safety and System Development Linkoping June 11 12 2001 Referencias EditarGertman D L and Blackman H S 2001 Human reliability and safety analysis data handbook Wiley Gertman D Blackman H Marble J Byers J and Smith C 2005 The SPAR H human reliability analysis method NUREG CR 6883 Idaho National Laboratory prepared for U S Nuclear Regulatory Commission 1 Hollnagel E 1993 Human reliability analysis Context and control Academic Press Hollnagel E 1998 Cognitive reliability and error analysis method CREAM Elsevier Hollnagel E and Amalberti R 2001 The Emperor s New Clothes or whatever happened to human error Invited keynote presentation at 4th International Workshop on Human Error Safety and System Development Linkoping June 11 12 2001 Hollnagel E Woods D D and Leveson N Eds 2006 Resilience engineering Concepts and precepts Ashgate Jones P M 1999 Human error and its amelioration InHandbook of Systems Engineering and Management A P Sage and W B Rouse eds 687 702 Wiley Kirwan B 1994 A Guide to Practical Human Reliability Assessment Taylor amp Francis Kirwan B and Ainsworth L Eds 1992 A guide to task analysis Taylor amp Francis Norman D 1988 The psychology of everyday things Basic Books Reason J 1990 Human error Cambridge University Press Roth E et al 1994 An empirical investigation of operator performance in cognitive demanding simulated emergencies NUREG CR 6208 Westinghouse Science and Technology Center Report prepared for Nuclear Regulatory Commission Sage A P 1992 Systems engineering Wiley Senders J and Moray N 1991 Human error Cause prediction and reduction Lawrence Erlbaum Associates Shappell S amp Wiegmann D 2000 The human factors analysis and classification system HFACS DOT FAA AM 00 7 Office of Aviation Medicine Federal Aviation Administration Department of Transportation 2 Swain A D amp Guttman H E 1983 Handbook of human reliability analysis with emphasis on nuclear power plant applications NUREG CR 1278 Washington D C Wallace B and Ross A 2006 Beyond human error CRC Press Wiegmann D amp Shappell S 2003 A human error approach to aviation accident analysis The human factors analysis and classification system Ashgate Wilson J R 1993 SHEAN Simplified Human Error Analysis code and automated THERP United States Department of Energy Technical Report Number WINCO 11908 3 Woods D D 1990 Modeling and predicting human error In J Elkind S Card J Hochberg and B Huey Eds Human performance models for computer aided engineering 248 274 Academic Press Saber mas EditarAutrey T D 2007 editorial Practicing Perfection Institute Mistake Proofing Six Sigma How to Minimize Project Scope and Reduce Human Error Davies J B Ross A Wallace B and Wright L 2003 Safety Management a Qualitative Systems Approach Taylor and Francis Dekker S W A 2005 Ten Questions About Human Error a new view of human factors and systems safety Lawrence Erlbaum Associates Dekker S W A 2006 The Field Guide to Understanding Human Error Ashgate Dekker S W A 2007 Just Culture Balancing Safety and Accountability Ashgate Dismukes R K Berman B A and Loukopoulos L D 2007 The limits of expertise Rethinking pilot error and the causes of airline accidents Ashgate Forester J Kolaczkowski A Lois E and Kelly D 2006 Evaluation of human reliability analysis methods against good practices NUREG 1842 Final Report U S Nuclear Regulatory Commission 4 Goodstein L P Andersen H B and Olsen S E Eds 1988 Tasks errors and mental models Taylor and Francis Grabowski M and Roberts K H 1996 Human and organizational error in large scale systems IEEE Transactions on Systems Man and Cybernetics Volume 26 No 1 January 1996 2 16 Greenbaum J and Kyng M Eds 1991 Design at work Cooperative design of computer systems Lawrence Erlbaum Associates Harrison M 2004 Human error analysis and reliability assessment Workshop on Human Computer Interaction and Dependability 46th IFIP Working Group 10 4 Meeting Siena Italy July 3 7 2004 5 Hollnagel E 1991 The phenotype of erroneous actions Implications for HCI design In G W R Weir and J L Alty Eds Human computer interaction and complex systems Academic Press Hutchins E 1995 Cognition in the wild MIT Press Kahneman D Slovic P and Tversky A Eds 1982 Judgment under uncertainty Heuristics and biases Cambridge University Press Leveson N 1995 Safeware System safety and computers Addison Wesley Morgan G 1986 Images of organization Sage Mura S S 1983 Licensing violations Legitimate violations of Grice s conversational principle In R Craig and K Tracy Eds Conversational coherence Form structure and strategy 101 115 Sage Perrow C 1984 Normal accidents Living with high risk technologies Basic Books Rasmussen J 1983 Skills rules and knowledge Signals signs and symbols and other distinctions in human performance models IEEE Transactions on Systems Man and Cybernetics SMC 13 257 267 Rasmussen J 1986 Information processing and human machine interaction An approach to cognitive engineering Wiley Silverman B 1992 Critiquing human error A knowledge based human computer collaboration approach Academic Press Swets J 1996 Signal detection theory and ROC analysis in psychology and diagnostics Collected papers Lawrence Erlbaum Associates Tversky A and Kahneman D 1974 Judgment under uncertainty Heuristics and biases Science 185 1124 1131 Vaughan D 1996 The Challenger launch decision Risky technology culture and deviance at NASA University of Chicago Press Wallace B and Ross A 2006 Beyond human error CRC Press Woods D D Johannesen L Cook R and Sarter N 1994 Behind human error Cognitive systems computers and hindsight CSERIAC SOAR Report 94 01 Crew Systems Ergonomics Information Analysis Center Wright Patterson Air Force Base Ohio Enlaces externos EditarDocumentos de estandarizacion y guias Editar IEEE Standard 1082 1997 IEEE Guide for Incorporating Human Action Reliability Analysis for Nuclear Power Generating Stations enlace roto disponible en Internet Archive vease el historial la primera version y la ultima Herramientas Editar Eurocontrol Human Error Tools EPRI HRA CalculatorCentros de investigacion Editar Erik Hollnagel en el Crisis and Risk Research Centre en MINES ParisTech Human Reliability Analysis en el Laboratorio Nacional de Sandia de Estados Unidos Center for Human Reliability Studies en el Laboratorio Nacional Oak Ridge de Estados Unidos Flight Cognition Laboratory en el NASA Ames Research Center David Woods en el Cognitive Systems Engineering Laboratory en la Ohio State University Sidney Dekker s Leonardo da Vinci Laboratory for Complexity and Systems Thinking Lund University Sweden ESM Safety and Human Factors Investigation InstituteReportajes Editar Human Reliability We break down just like machines Archivado el 20 de mayo de 2008 en Wayback Machine Industrial Engineer November 2004 36 11 66 Datos Q186289 Obtenido de https es wikipedia org w index php title Fiabilidad humana amp oldid 135588077, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos