Человеческая надежность

Фактор безопасности, эргономики и устойчивости системы

В области человеческого фактора и эргономики надежность человека (также известная как производительность человека или HU ) — это вероятность того, что человек выполнит задачу на достаточном уровне. [1] Надежность человека может зависеть от многих факторов, таких как возраст , физическое здоровье , психическое состояние , отношение , эмоции , личная склонность к определенным ошибкам и когнитивные предубеждения .

Человеческая надежность важна для устойчивости социально -технических систем и имеет значение для таких областей, как производство , медицина и ядерная энергетика . Попытки уменьшить человеческие ошибки и повысить надежность взаимодействия человека с технологиями включают проектирование, ориентированное на пользователя , и проектирование, устойчивое к ошибкам .

Факторы, влияющие на работоспособность человека

Человеческие ошибки , человеческая эффективность и человеческая надежность особенно важны, когда работа выполняется в сложной и высокорисковой среде. [2]

Стратегии борьбы с факторами, влияющими на производительность, такими как психологический стресс , когнитивная нагрузка , усталость, включают эвристики и предубеждения, такие как предубеждение подтверждения , эвристика доступности и частотное предубеждение .

Анализ надежности человека

Существует множество методов анализа надежности человека (HRA). [3] [4] Два основных класса методов — это методы, основанные на вероятностной оценке риска (PRA), и методы, основанные на когнитивной теории контроля .

Методы, основанные на PRA

Один из методов анализа надежности человека — это прямое расширение вероятностной оценки риска (PRA): так же, как оборудование может выйти из строя на электростанции , так и оператор-человек может совершать ошибки. В обоих случаях анализ ( функциональная декомпозиция для оборудования и анализ задач для людей) сформулирует уровень детализации, для которого могут быть назначены вероятности отказа или ошибки. Эта основная идея лежит в основе Методики прогнозирования частоты ошибок человека (THERP). [5] THERP предназначен для генерации вероятностей ошибок человека, которые будут включены в PRA. Процедура надежности человека Программы оценки последовательности аварий (ASEP) — ​​это упрощенная форма THERP; связанный с ней вычислительный инструмент — Упрощенный код анализа человеческих ошибок (SHEAN). [6] Совсем недавно Комиссия по ядерному регулированию США опубликовала метод Стандартизированного анализа риска завода — Анализ надежности человека (SPAR-H), чтобы учесть потенциальную возможность человеческой ошибки. [7] [8]

Методы, основанные на когнитивном контроле

Эрик Холлнагель развил эту линию мысли в своей работе над моделью контекстного управления (COCOM) [9] и методом анализа когнитивной надежности и ошибок (CREAM). [10] COCOM моделирует человеческую эффективность как набор режимов управления — стратегический (основанный на долгосрочном планировании), тактический (основанный на процедурах), оппортунистический (основанный на текущем контексте) и скрамблированный (случайный) — и предлагает модель того, как происходят переходы между этими режимами управления. Эта модель перехода между режимами управления состоит из ряда факторов, включая оценку человеком-оператором результата действия (успех или неудача), оставшееся время для выполнения действия (адекватное или неадекватное) и количество одновременных целей человека-оператора в это время. CREAM — это метод анализа надежности человека, основанный на COCOM.

Смежные методы в области техники безопасности и надежности включают анализ видов и последствий отказов , анализ рисков , дерево отказов и SAPHIRE (программы системного анализа для комплексной практической оценки надежности).

Система анализа и классификации человеческого фактора (HFACS)

Система анализа и классификации человеческого фактора (HFACS) изначально была разработана как основа для понимания роли человеческой ошибки в авиационных происшествиях . [11] [12] Она основана на модели швейцарского сыра Джеймса Ризона для человеческой ошибки в сложных системах. HFACS различает «активные сбои» небезопасных действий и «скрытые сбои» предпосылок для небезопасных действий, небезопасного надзора и организационных влияний. Эти категории были разработаны эмпирически на основе множества отчетов об авиационных происшествиях.

«Небезопасные действия» совершаются человеком-оператором «на передовой» (например, пилотом , авиадиспетчером или водителем). Небезопасные действия могут быть либо ошибками (в восприятии, принятии решений или выполнении на основе навыков), либо нарушениями. Нарушения или преднамеренное пренебрежение правилами и процедурами могут быть обычными или исключительными. Обычные нарушения происходят регулярно и обычно допускаются организацией или органом власти. Исключительные нарушения необычны и часто экстремальны. Например, вождение со скоростью 60 миль в час в зоне ограничения скорости 55 миль в час является обычным нарушением, в то время как вождение со скоростью 130 миль в час в той же зоне является исключительным.

Существует два типа предпосылок для небезопасных действий: те, которые связаны с внутренним состоянием человека-оператора, и те, которые связаны с практикой или способами работы человека-оператора. Неблагоприятные внутренние состояния включают те, которые связаны с физиологией (например, болезнь) и психическим состоянием (например, умственная усталость, рассеянность). Третий аспект «внутреннего состояния» на самом деле является несоответствием между способностями оператора и требованиями задачи. Четыре типа небезопасного надзора: неадекватный надзор; запланированные ненадлежащие операции; неспособность исправить известную проблему; и нарушения надзора.

Организационные влияния включают в себя те, которые связаны с управлением ресурсами (например, нехватка человеческих или финансовых ресурсов), организационным климатом (структуры, политики и культура ) и организационными процессами (такими как процедуры , графики , надзор).

Смотрите также

Сноски

  1. ^ Каликсто, Эдуардо (2016-01-01), Каликсто, Эдуардо (ред.), «Глава 5 — Анализ надежности человека», Gas and Oil Reliability Engineering (второе издание) , Бостон: Gulf Professional Publishing, стр. 471–552, ISBN 978-0-12-805427-7, получено 2023-12-18
  2. ^ https://www.standards.doe.gov/standards-documents/1000/1028-BHdbk-2009-v1/@@images/file DOE-HDBK-1028-2009
  3. ^ Кирван и Эйнсворт, 1992
  4. ^ Кирван, 1994
  5. ^ Свейн и Гуттманн, 1983
  6. ^ Упрощенный код анализа человеческих ошибок (Уилсон, 1993)
  7. ^ SPAR-H
  8. ^ Гертман и др., 2005
  9. ^ (Холлнагель, 1993)
  10. ^ (Холлнагель, 1998)
  11. ^ Шаппель и Вигманн, 2000
  12. ^ Вигманн и Шаппель, 2003

Ссылки

  • Gertman, DL; Blackman, HS (2001). Справочник по анализу данных о надежности и безопасности человека . Wiley.
  • Gertman, D., Blackman, H., Marble, J., Byers, J. и Smith, C. (2005). Метод анализа надежности человека SPAR-H. NUREG/CR-6883. Айдахская национальная лаборатория, подготовлено для Комиссии по ядерному регулированию США .{{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )[1]
  • M. Cappelli, AMGadomski, M.Sepielli (2011). Человеческие факторы в управлении безопасностью атомных электростанций: подход к социально-когнитивному моделированию с использованием метатеории TOGA. Труды Международного конгресса по достижениям в области атомных электростанций. Ницца (Франция) . SFEN (Société Française d'Energie Nucléaire).{{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )
  • Холлнагель, Э. (1993). Анализ надежности человека: контекст и контроль . Academic Press.
  • Холлнагель, Э. (1998). Метод анализа когнитивной надежности и ошибок: CREAM . Elsevier.
  • Холлнагель, Э.; Амальберти, Р. (2001). Новое платье короля, или что случилось с «человеческой ошибкой»? Приглашенный основной доклад на 4-м Международном семинаре по человеческим ошибкам, безопасности и разработке систем . Линчёпинг, 11–12 июня 2001 г.
  • Холлнагель, Э., Вудс, Д.Д. и Левесон, Н. (ред.) (2006). Инженерия устойчивости: концепции и предписания . Ashgate.{{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )
  • Джонс, П. М. (1999). Человеческая ошибка и ее устранение. В Handbook of Systems Engineering and Management (редакторы AP Sage и WB Rouse), 687-702 . Wiley.
  • Кирван, Б. (1994). Руководство по практической оценке надежности человека . Тейлор и Фрэнсис.
  • Кирван, Б. и Эйнсворт, Л. (ред.) (1992). Руководство по анализу задач . Тейлор и Фрэнсис.{{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )
  • Норман, Д. (1988). Психология повседневных вещей . Basic Books.
  • Reason, J. (1990). Человеческая ошибка . Cambridge University Press.
  • Рот, Э. и др. (1994). Эмпирическое исследование производительности оператора в моделируемых чрезвычайных ситуациях, требующих когнитивных усилий. NUREG/CR-6208, Westinghouse Science and Technology Center . Отчет, подготовленный для Комиссии по ядерному регулированию.
  • Сейдж, А. П. (1992). Системная инженерия . Wiley.
  • Сендерс, Дж.; Морей, Н. (1991). Человеческая ошибка: причина, прогнозирование и сокращение . Lawrence Erlbaum Associates.
  • Шаппель, С.; Вигманн, Д. (2000). Система анализа и классификации человеческого фактора - HFACS. DOT/FAA/AM-00/7, Управление авиационной медицины, Федеральное управление гражданской авиации, Министерство транспорта .[2]
  • Свейн, А. Д. и Гуттман, Х. Э. (1983). Справочник по анализу надежности человека с упором на применение на атомных электростанциях . NUREG/CR-1278 (Вашингтон, округ Колумбия).{{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )
  • Уоллес, Б.; Росс, А. (2006). За пределами человеческой ошибки . CRC Press.
  • Вигманн, Д.; Шаппелл, С. (2003). Подход к анализу авиационных происшествий с точки зрения человеческого фактора: система анализа и классификации человеческого фактора . Эшгейт.
  • Уилсон, Дж. Р. (1993). SHEAN (код упрощенного анализа человеческих ошибок) и автоматизированный THERP . Номер технического отчета Министерства энергетики США WINCO--11908.[3]
  • Woods, DD (1990). Моделирование и прогнозирование человеческих ошибок. В J. Elkind, S. Card, J. Hochberg, and B. Huey (Eds.), Модели производительности человека для компьютерного проектирования (248-274) . Academic Press.
  • Федеральное управление гражданской авиации. Электронный свод правил 2009 года. Получено 25 сентября 2009 г. с https://web.archive.org/web/20120206214308/http://www.airweb.faa.gov/Regulatory_and_Guidance_library/rgMakeModel.nsf/0/5a9adccea6c0c4e286256d3900494a77/$FILE/H3WE.pdf

Дальнейшее чтение

  • Autrey, TD (2015). 6-часовая культура безопасности: как устойчиво снизить человеческие ошибки и риски (и сделать то, чего не может сделать одно лишь обучение). Human Performance Association. Архивировано из оригинала 2021-04-11 . Получено 2020-08-21 .
  • Дэвис, Дж. Б., Росс, А., Уоллес, Б. и Райт, Л. (2003). Управление безопасностью: качественный системный подход . Тейлор и Фрэнсис.{{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )
  • Dekker, SWA (2005). Ten Questions About Human Error: a new view of human factors and systems safety. Lawrence Erlbaum Associates. Архивировано из оригинала 2012-12-11 . Получено 2010-05-24 .
  • Dekker, SWA (2006). Полевое руководство по пониманию человеческих ошибок. Ashgate. Архивировано из оригинала 2012-03-06 . Получено 2010-05-24 .
  • Dekker, SWA (2007). Just Culture: Balancing Safety and Accountability. Ashgate. Архивировано из оригинала 2012-03-06 . Получено 2010-05-24 .
  • Дисмьюкс, Р. К., Берман, Б. А. и Лукопулос, Л. Д. (2007). Пределы экспертных знаний: переосмысление ошибок пилотов и причин авиакатастроф . Эшгейт.{{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )
  • Forester, J., Kolaczkowski, A., Lois, E., и Kelly, D. (2006). Оценка методов анализа надежности человека в сравнении с передовой практикой. Заключительный отчет NUREG-1842 . Комиссия по ядерному регулированию США.{{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )[4]
  • Гудстейн, Л. П., Андерсен, Х. Б. и Олсен, С. Э. (ред.) (1988). Задачи, ошибки и ментальные модели . Тейлор и Фрэнсис.{{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )
  • Грабовски, М.; Робертс, К. Х. (1996). «Человеческие и организационные ошибки в крупномасштабных системах». Труды IEEE по системам, человеку и кибернетике — Часть A: Системы и люди . 26 : 2–16. doi :10.1109/3468.477856.
  • Гринбаум, Дж. и Кинг, М. (ред.) (1991). Дизайн в работе: кооперативное проектирование компьютерных систем . Lawrence Erlbaum Associates.{{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )
  • Харрисон, М. (2004). Анализ человеческих ошибок и оценка надежности . Семинар по взаимодействию человека с компьютером и надежности, 46-е заседание рабочей группы IFIP 10.4, Сиена, Италия, 3–7 июля 2004 г.[5]
  • Hollnagel, E. (1991). Фенотип ошибочных действий: последствия для проектирования HCI. В GWR Weir и JL Alty (ред.), Взаимодействие человека с компьютером и сложные системы. Академическая пресса.
  • Хатчинс, Э. (1995). Познание в дикой природе . MIT Press.
  • Канеман, Д., Слович, П. и Тверски, А. (ред.) (1982). «Суждение в условиях неопределенности: эвристики и предубеждения». Science . 185 (4157). Cambridge University Press: 1124–31. doi :10.1126/science.185.4157.1124. PMID  17835457. S2CID  143452957.{{cite journal}}: CS1 maint: несколько имен: список авторов ( ссылка )
  • Левесон, Н. (1995). Safeware: безопасность систем и компьютеров . Addison-Wesley.
  • Морган, Г. (1986). Образы организации . Sage.
  • Мура, С.С. (1983). Нарушения лицензирования: Законные нарушения принципа разговора Грайса. В книге Р. Крейга и К. Трейси (редакторы), Разговорная связность: форма, структура и стратегия (101-115) . Sage.
  • Перроу, К. (1984). Обычные несчастные случаи: Жизнь с высокорискованными технологиями . Базовые книги. ISBN 9780465051441.
  • Расмуссен, Дж. (1983). Навыки, правила и знания: сигналы, знаки, символы и другие различия в моделях человеческой деятельности. Труды IEEE по системам, человеку и кибернетике , SMC-13, 257-267 .
  • Расмуссен, Дж. (1986). Обработка информации и взаимодействие человека и машины: подход к когнитивной инженерии . Wiley.
  • Сильверман, Б. (1992). Критика человеческой ошибки: основанный на знаниях подход к сотрудничеству человека и компьютера . Academic Press.
  • Swets, J. (1996). Теория обнаружения сигналов и ROC-анализ в психологии и диагностике: Сборник статей . Lawrence Erlbaum Associates.
  • Тверски, А.; Канеман, Д. (1974). Суждение в условиях неопределенности: эвристики и предубеждения. Наука , 185, 1124-1131 .
  • Vaughan, D. (1996). Решение о запуске Challenger: Рискованные технологии, культура и отклонения в NASA . Издательство Чикагского университета. ISBN 9780226851761.
  • Вудс, Д.Д., Йоханнесен, Л., Кук, Р. и Сартер, Н. (1994). За человеческой ошибкой: когнитивные системы, компьютеры и ретроспективный взгляд. Отчет CSERIAC SOAR 94-01 . Центр анализа информации об эргономике систем экипажа, авиабаза Райт-Паттерсон, Огайо.{{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )
  • Wu, S., Hrudey, S., French, S., Bedford, T., Soane, E. и Pollard, S. (2009). «Роль анализа надежности человека (HRA) в предотвращении инцидентов, связанных с питьевой водой, и обеспечении безопасной питьевой воды» (PDF) . Water Research . 43 (13): 3227–3238. Bibcode : 2009WatRe..43.3227W. doi : 10.1016/j.watres.2009.04.040. PMID  19493557.{{cite journal}}: CS1 maint: несколько имен: список авторов ( ссылка )
  • CCPS, Руководство по предотвращению человеческих ошибок. В этой книге объясняется качественная и количественная методология прогнозирования человеческих ошибок. Качественная методология называется SPEAR: Системы прогнозирования человеческих ошибок и восстановления, а количественная методология также включает THERP и т. д.

Стандарты и руководящие документы

  • Стандарт IEEE 1082 (1997): Руководство IEEE по включению анализа надежности действий человека для атомных электростанций
  • Стандарт DOE DOE-HDBK-1028-2009: Справочник по улучшению деятельности человека

Инструменты

  • Калькулятор EPRI HRA
  • Инструменты Eurocontrol Human Error
  • Программное обеспечение RiskSpectrum HRA
  • Упрощенный код анализа человеческих ошибок

Научно-исследовательские лаборатории

Освещение в СМИ

  • «Как избежать человеческих ошибок в ИТ» Архивировано 04.03.2016 на Wayback Machine
  • «Надежность человека. Мы ломаемся так же, как машины» Industrial Engineer – ноябрь 2004 г., 36(11): 66

Нетворкинг

  • Группа управления высокой надежностью на LinkedIn.com
Взято с "https://en.wikipedia.org/w/index.php?title=Надежность_человека&oldid=1245379146"