Управление ошибками в авиации это

Понятие об ошибке – одно из фундаментальных
понятий Управления Ресурсами Экипажа
(СRМ).

Полностью исключить ошибки из деятельности
человека невозможно. Ошибки – стиль
жизни. Мы изучаем реальность методом
«проб и ошибок», воспринимаем ее не
объективно, под влиянием чувств,
настроений, состояния. 2 тысячи лет назад
Цицерон сказал: «Человеку свойственно
ошибаться».

Неизбежность ошибок означает, что мало
уметь действовать правильно, необходимо
научиться:

  • предупреждать;

  • обнаруживать;

  • исправлять
    ошибки.

Американский ученый Джеймс Ризон считает
ошибками случаи, когда плановая умственная
или физическая деятельность, не достигает
результата. Ошибка– «незапланированное
действие». Мы или делаем то, что не должны
(ошибка исполнения), или не делаем то,
что должны сделать (пропуски). В любом
случае, результат не соответствует
намерениям.

4.8.1 Теория и модель ошибок человека

Исследования показывают, что опытные
экипажи в нормальных условиях допускают
3 — 5 ошибок в час (неправильный прием
информации, выбор кнопок, пропуск
радиовызова или пункта ККП).

Основные
категории ошибок:

  • Латентные
    (скрытые) ошибки (условия или события
    в прошлом, например, ошибки в конструкции
    ВС).

  • Активные
    – непосредственные ошибки или
    действия, ставшие причиной ошибок
    (пусковые события).

Активные ошибки подразделяют на
3 вида – ошибки, связанные:

  • с
    навыками;

  • правилами;

  • знаниями.

Принципиальная разница между ними
состоит в режиме работы сознания. При
автоматической деятельности участие
сознания минимально, используемый объем
до 10% и возможно одновременное выполнение
других задач (напр., пилотирование и
ведение радиосвязи).

Сознательная деятельность, основанная
на знаниях, связана с работой долговременной
памяти, использует ресурсы внимания
почти полностью, может сочетаться только
с автоматической деятельностью, не
допускает совмещения с даже простыми
логическими или процедурными задачами.

Процедурная (основанная на правилах)
деятельность по расходу ресурсов
внимания и возможности совмещения
занимает промежуточное между автоматической
и сознательной деятельностью место.

Ошибки, связанные с навыками.

Большинство привычных действий, основано
на хорошо освоенных навыках: ходьба и
речь, ручное пилотирование ВС – относятся
к автоматическим действиям. Автоматическое
поведение, почти, не нуждается в контроле
сознания. Сознательный контроль может
затруднять исполнение.

Навык формируется многократным
повторением. Осознанное исполнение
повышает качество обучения.

Ошибки, связанные с навыками, обычно,
— результат или недостаточного или
чрезмерного внимания, уделяемого задаче
(низкой или чрезмерной мотивации),
возвращения старого навыка (первые
навыки прочнее) или замещения, когда
вместо одного действия выполняется
другое (вместо шасси закрылки).

К ошибкам, связанным с навыками, относятся
непроизвольные движения, ошибки,
обусловленные различием в компоновке
кабин ВС, реверсии и другие, ненамеренные
действия.

Ошибки, связанные с правилами.

Сложные действия требуют участия
сознания. При решении стандартных задач
мы пользуемся набором житейских или
профессиональных правил, которые
экономят и силы и время. При решении
однотипных задач формируется (сознательно
или неосознанно) стереотип действий,
который с одной стороны облегчает
выполнение задачи, с другой стороны
снижает уровень осознанности. Происходит
нечто вроде автоматизации процедурной
деятельности.

Возможны ошибки, связанные с неверным
выбором правила или процедуры. Например,
экипаж может неправильно определить
отказ и, соответственно, применить
неверную процедуру, в результате отказ
не будет парирован. Причиной ошибки
может быть недоученность, неспособность
вспомнить процедуру.

Ошибки, обусловленные различием в
компоновке
кабин, происходят из-за
переноса навыка выполнения какой-либо
задачи с помощью определенного органа
управления.

Реверсиипроисходят, когда
сложившийся стереотип не нужен, но
используется машинально. Это происходит,
когда пилот не сосредоточен или в
состоянии стресса.

Ошибки, связанные со знаниями

В нестандартных ситуациях, для которых
нет правил, при выработке решения мы
опираемся на знания и опыт. Ошибки,
связанные со знаниями, возникают в
сложных ситуациях. При этом членам
экипажа точно не известна суть проблемы,
и нет уверенности, что решение даст
желаемый результат.

Ошибки, основанные на знаниях, связаны
с неполными или неверными знаниями, или
неверной интерпретацией ситуации.

Примером служит неправильная оценка
ситуации из-за неточного понимания
принципа работы системы ВС. Если член
экипажа уже сталкивался с аналогичной
ситуацией, он может посмотреть
дополнительную информацию, чтобы
убедиться в правильности своего
понимания, а может не посмотреть….

Концепция «цепи ошибок»

Практически никогда инцидент не
происходит из-за одной единственной
ошибки. При расследовании АП и инцидентов,
обычно, выясняется, что в его основе
лежит несколько ошибок, зачастую
допущенных разными людьми.

Когда одна ошибка создает условия для
возникновения другой, усложняет условия
выполнения следующей задачи и провоцирует
новые ошибки, говорят о возникновении
«цепи ошибок». Работа такой «цепи»
разрушает нормальное взаимодействие
в экипаже и может привести к инциденту.

Если «разорвать» любое звено цепи, то
ее развитие прекратится и ситуация
нормализуется. «Разрывают» цепь с
помощью системных инструментов:

  • Стандартных Процедур (СП);

  • Карт Контрольных Проверок (ККП);

  • Правил CRMи т.д.

Ошибки могут бытьследствием
умышленного или неумышленного поведения
и их можно подразделить на промахи,
упущения и заблуждения в зависимости
от преднамеренности их совершения:

  • промахи – неумышленные действия,
    вызванные недостатком необходимого
    внимания в результате отвлечений,
    нарушения порядка или несвоевременных
    действий (например, пилоту была известна
    нужная частота, но он ошибочно установил
    другую);

  • упущения– неумышленные действия
    по причине провалов памяти, когда
    забываются

собственные намерения, возникает
дезориентация или не выполняются
запланированные

действия (например, пилот знал, что ему
необходимо доложить о занятии нужной
высоты, но забыл это сделать);

  • заблуждения– преднамеренные
    действия, вызванные плохим планированием,
    а не

умышленным решением нарушить
установленные правила или процедуры
(например,

командир воздушного судна решает
следовать на запасной аэродром с
подходящим прогнозом погоды, но не
имеющим адекватного наземного
оборудования для данного типа ВС ).

Заблуждения основываются на применении
«правил», которые мы создаем на
основании нашего личного опыта. Они
могут возникать в результате применения
правила, неподходящего для данной
ситуации, или неправильного применения
нужного правила.

Промахи и упущенияявляются, в
основном, обусловленными или
автоматическими реакциями, имеющими
мало общего с сознательным принятием
решений.

С другой стороны, заблуждениясвязаны с принятием преднамеренного
решения и оцениванием ситуации,
основанных на знаниях, опыте и
умственных моделях, хорошо срабатывавших
в прошлом.

Нарушения связаны с заблуждениями.
Хотя промахи, упущения и заблуждения
могут привести к техническим нарушениям
авиационных правил или эксплуатационных
процедур авиакомпании, они рассматриваются
как ошибки, поскольку не основаны
на преднамеренном решении о нарушении
установленных правил. Однако нарушения
не являются ошибками.

Подобно заблуждениям, нарушения включают
преднамеренные нарушения планов, часто
основанные на знаниях и умственных
моделях, приобретенных на основании
ежедневного опыта, но также включают
преднамеренное решение нарушать
установленные правила или

процедуры (например, пилот решает
снизиться ниже предписанного минимума
захода на посадку или диспетчер
уменьшает безопасное расстояние между
воздушными судами ниже установленных
стандартов).

Ошибки, ориентированные на
эксплуатационные условия
:

  • процедурная
    ошибка
    — непреднамеренная ошибка,
    которая может проявляться в виде

промахов, упущений и заблуждений при
выполнении авиационных правил и/или
установлен- ных процедур авиакомпании.
Намерения верны, но выполнение
ошибочно
. Сюда также входят ошибки,
когда летный экипаж забыл что-либо
сделать. При совершении проце- дурных
ошибок всегда наличествуют и записанные
процедуры и намерения экипажа.

  • ошибка
    связи
    — непреднамеренная ошибка в
    результате неправильной передачи
    или

неверного понимания информации, или
неудачной попытки сообщить нужную
информа- цию другим членам летного
экипажа или обменяться ею между
летным экипажем и внешним адресатом
(например, УВД или наземными службами).

  • ошибка,
    связанная с профессиональным уровнем
    — непреднамеренная ошибка, вызван- ная
    недостатком знаний или физических
    навыков;

  • ошибка в принятии эксплуатационных
    решений
    — непреднамеренная ошибка
    при принятии решений, не связанная
    напрямую с выполнением авиационных
    правил или эксплуатационных процедур
    авиакомпании, то есть ошибка, которая
    неоправданно наносит ущерб безопасности
    полетов (например, решение экипажа
    пройти сквозь известную зону сдвига
    ветра во время захода на посадку);

  • преднамеренное несоблюдение
    намеренное отклонение от авиационных
    правил и/или эксплуатационных процедур
    авиакомпании. Если экипаж испытывает
    повышен- ную рабочую нагрузку или
    совершает ошибку только один раз,
    это, скорее всего, будет процедурной
    ошибкой. Однако если экипаж совершает
    одну и ту же ошибку неоднократно, или,
    если ошибка вызвана халатностью, тогда
    это преднамеренное несоблю- дение (т.е.
    нарушение).

Условия, способствующие совершению
ошибок

В модели SHEL неровности границ между
различными блоками модели показывают
несоответствия между человеком и
другими элементами модели. Таким
образом, в каждой зоне интерфейса
модели SHEL существует потенциал
провоцирования или усугубления ошибок.

Например:

  • В
    зоне взаимодействия «субъект
    (человек) – объект (машина)»
    неудачно
    расположен- ные или неправильно
    маркированные кремальеры и ручки могут
    вызывать замешатель- ство, ведущее к
    промахам.

  • В зоне взаимодействия «субъект
    (человек) – процедуры
    » могут
    случаться задержки и ошибки во время
    поисков жизненно важной информации
    в запутанной, недостоверной или
    чрезмерно загруженной документации
    или картах, что может приводить к
    промахам и заблуждениям.

  • В зоне взаимодействия «субъект
    (человек) – окружающая среда
    »
    факторы окружаю- щей среды или сбои
    в биологических ритмах могут влиять
    на способность сосредо- тачиваться,
    разумно мыслить и общаться, что
    влияет на отношение к другим членам
    экипажа или к самому выполнению
    полета, а все это может способствовать
    промахам, упущениям или заблуждениям.

  • Неудовлетворительное взаимодействие
    «субъект (человек) – субъект
    (человек
    )» может снижать
    эксплуатационную эффективность и
    вызывать недопонимания, и, в конечном
    счете, приводить к промахам, упущениям
    и заблуждениям (например, неадекватная
    передача информации часто упоминается
    в отчетах об авиационных происшествиях
    как один из причинных факторов).

Условия, способствующие совершению
нарушений

Условия, способствующие совершению
нарушений, не так хорошо понятны, как
факторы, способствующие совершению
ошибок. Ниже приведены в произвольной
последовательности примеры условий,
способствующих совершению нарушений:

  • конфликтующие между собой цели
    (например, предпочтение отдается
    своевремен- ности обслуживания или
    экономии топлива, а не обеспечению
    безопасности полетов);

  • давление со стороны руководства
    авиакомпании (например, «Если ты не
    можешь делать это, то я найму кого-нибудь,
    кто сможет»);

  • давление, инициируемое внутри самого
    себя и со стороны коллег (например,
    «Прежний командир воздушного судна
    хорошо справлялся с этим, и я смогу»);

  • конфликт между командиром ВС и
    руководством авиакомпании;

  • ненадлежащие надзор и контроль;

  • не отвечающие требованиям нормы
    (например, применение опасной практики
    коллегами по работе);

  • ошибочное восприятие риска;

  • безразличие, проявляемое руководством
    (например, молчаливое согласие с тем,
    что

отклонения от правил приемлемы);

  • вера в то, что «авиационное происшествие
    не может случиться со мной»;

  • нечеткие или бессмысленные правила;

  • культура поведения «все могу»,
    требующая отклонений от правил.

4.8.2 Обратимые
и необратимые ошибки

Обратимые ошибки, как правило, могут
быть исправлены, а необратимые нет.
Например, если экипаж ошибся в расчете
количества топлива, он может сесть в
ближайшем аэропорту и дозаправиться.
А если по ошибке слил топливо в полете,
то возможности исправления у него может
не оказаться.

Хорошо сконструированная система или
процедура предполагает возможность
исправления ошибок. Так на случай, если
экипаж неправильно распределит топливо

по бакам, что приведет к нарушению
балансировки ВС, должна быть предусмотрена
предупредительная сигнализация.

Непроизвольные движения, пропущенные
действия, ошибочные намерения

Дж. Ризон классифицирует ошибки по
«намерениям»:

  • Предшествовало ли намерение действию?

  • Выполнялись ли действия по плану?

  • Достигли ли они результата?

Непроизвольные движения
это действия, которые выполняются не
намеренно и не планируются. Например,
дрожание пальцев при установке частоты
на пульте или словесные оговорки.

Пропуски имеют место при
дефиците ресурсов памяти и/или внимания,
когда пилот забывает что-либо сделать.
Например, выпустить шасси.

Ошибочные намерения
специфический тип ошибок, когда человек
что-либо делает, полагая, что действия
правильные, а фактически – это не так.
Например, выключает не тот двигатель.

Нарушения.

К 4-му типу можно отнести ошибки,
традиционно, называемые нарушениями.
С точки зрения системы нарушения —
результат ошибок профотбора, обучения,
оценки персонала, качества разработки
и внедрения процедур или других системных
недостатков. Нарушения могут быть
следствием стремления лучше выполнить
работу или некомпетентности и лени.

Различают три типа нарушений:

  • Привычные;

  • Ситуативные;

  • Оптимизирующие.

Привычные нарушения – это
нарушения, ставшие повседневной нормой
(в подразделении или авиакомпании),
например, в силу того, что члены экипажа
считают процедуру слишком сложной, и
нарушают ее, чтобы упростить задачу,

сэкономить время.

Ситуативные нарушения
следствие дефицита времени, высокой
рабочей нагрузки или плохой эргономики
ВС. Такие нарушения люди совершают ради
выполнения задачи (полета).

Оптимизирующие нарушения
отказ от правил. Порой, не связаны с
задачей. Человек использует возможность
удовлетворить собственные потребности;
напр., делает круг над домом, нарушая
правила.

Дефицит времени и рабочая нагрузка
повышают вероятность нарушений. Люди
сравнивают риск и выгоду спонтанно.
Реальный риск может быть значительно
выше ожидаемого.

Нарушенияотличаются от ошибок
намеренным характером. Т.е., кто-то что-то
делает, зная, что это не по правилам.
Вопрос: должен ли экипаж слепо следовать
стандартным процедурам или отклонения
иногда допустимы, достаточно неоднозначен.

Управление ошибками – это система
действий, направленных на сохранение
контроля над ситуацией,
которая
предусматривает комплекс методов
распознавания ошибок, обеспечения
необходимого уровня бдительности и
применение специальных процедур
исправления ошибок.

Управление ошибками – нечто большее,
чем просто стремление предотвращать,
и даже больше, чем стремление исправлять
все ошибки. Эффективный контроль над
ситуацией означает применение таких
стратегий, которые строятся на
представлении, что:

  • не все ошибки приводят к значимым
    последствия;

  • ошибки носят ненамеренный характер –
    никто не планирует ошибаться.

Ошибки– это предупредительные
сигналы, буферная зона между ситуацией,
когда «все под контролем» и когда она
не управляема. Без этих предупредительных
сигналов грань между контролируемым и
не контролируемым состояниями, стала
бы опасно тонкой. Ошибки помогают
учиться, адаптироваться, «держать руку
на пульсе», то есть сохранять над
ситуацией контроль.

Эксперты сохраняют высокий уровень
контроля над ситуацией за счет умения
отделять существенные ошибки от не
существенных. Это умение приходит с
опытом.

Управление ошибками на уровне
экипажа

Заметить ошибку другого человека проще,
чем свою собственную.

Групповые стратегии управления ошибками
включают:

● Коммуникации,

● Правила радиообмена с диспетчером
ОВД,

● Стандартные команды и доклады,

● Стандартные процедуры,

● Перекрестный контроль,

● Брифинг,

● Применение Карт Контрольных Проверок.

Задача управления
ошибками состоит в том, чтобы свести к
минимуму негативные последствия ошибок
при условии, что человеческая ошибка
может произойти в любое время и на любом
этапе полета.

Прежде всего
необходимо выявить ошибку до того
момента, когда она может негативно
сказаться на выполнении полета. Если
же ошибка своевременно не обнаружена
и не предпринято действие по ее
компенсации, ситуация в полете может
значительно усложниться.

Особую опасность
представляют ошибочные действия экипажа
при компенсировании уже допущенной
ошибки. Это может привести к трагическому
финалу.

Способности
человека ограничены. Ошибки возрастают
при увеличении рабочей нагрузки. Ошибки
также происходят при работе со сложными
системами ВС.

Безопасность
полетов это общая и абсолютная ценность
авиации. Главная обязанность всего
персонала развить и поддерживать на
высоком уровне культуру безопасности
в авиакомпании.

Возможности
управления ошибками

а)
Избегание ошибок.

Ошибок
можно избежать, строго выполняя SOP
и научившись
справляться с нестандартными ситуациями
и скрытыми угрозами.

б)
Защита от
ошибок.

Выполнение
стандартных процедур обеспечивает
своевременное обнаружение и исправление
ошибки, прежде чем она усложнит ситуацию.

в)
Уменьшение
последствий ошибки (компенсация).

После
обнаружения ошибки, необходимо
незамедлительно предпринять корректи­рующие
действия для уменьшения негативных
последствий ошибки.

Соседние файлы в папке приборы + электрообор

  • #
  • #
  • #
  • #
  • #
  • #

    12.01.20186.26 Mб379Силовые установки ВС. Учебное пособие.pdf

Модель управления угрозами и ошибками

Управление угрозами и ошибками (ТЕМ) — это всеобъемлющий подход к управлению безопасностью полетов, который предполагает, что пилоты естественным образом совершают ошибки и сталкиваются с опасными ситуациями во время выполнения полетов. Вместо того, чтобы пытаться избежать этих угроз и ошибок, его основное внимание уделяется обучению пилотов управлять этими проблемами, чтобы они не ухудшали безопасность. Его цель — поддерживать запас прочности за счет обучения пилоты и летные экипажи для обнаружения и реагирования на события, которые могут вызвать повреждение (угрозы), а также ошибки, которые с наибольшей вероятностью будут сделаны (ошибки) во время выполнения полетов.[1]

ТЕА позволяет экипажам измерять сложность контекста конкретной организации — а это означает, что угрозы и ошибки, с которыми сталкиваются пилоты, будут варьироваться в зависимости от типа полетов, — и регистрировать действия человека в этом контексте.[2] ТЕА также рассматривает технические (например, механические) и экологические проблемы и включает стратегии от Управление ресурсами экипажа научить пилотов управлять угрозами и ошибками.

Структура ТЕА была разработана в 1994 году психологами из Техасский университет на основе расследования аварий большой мощности Обычный общественный транспорт (RPT) авиакомпании.[3] Однако был необходим метод оценки для выявления угроз и ошибок во время выполнения полетов и для добавления информации к существующим данным ТЕА.[4][5] Аудит безопасности полетов (LOSA) служит этой цели и включает в себя выявление и сбор информации, связанной с безопасностью — о работе экипажа, условиях окружающей среды и сложности эксплуатации — высококвалифицированным наблюдателем.[5][6] Данные LOSA используются для оценки эффективности программы обучения организации и для выяснения того, как обученные процедуры применяются в повседневных полетах.

Важность ТЕА

Управление угрозами и ошибками — важный элемент в обучении компетентных пилотов, которые могут эффективно решать проблемы в полете.[1] Было разработано множество стратегий (например, обучение, командная работа, перераспределение рабочей нагрузки), которые были сосредоточены на улучшении стресс, усталость, и ошибка. При обучении летного экипажа подчеркивалась важность эксплуатационных процедур и технических знаний с меньшим упором на нетехнические навыки, которые оказались изолированными от реальных эксплуатационных условий.[4] Подготовка по вопросам безопасности, включая TEM, важна, потому что нетехнические знания экипажа (техники безопасности) помогают больше в эффективном управлении ошибками, чем знакомство экипажа с операциями на основе опыта.[7] Кандидаты, попавшие в короткий список в процессе отбора и обучения, должны продемонстрировать аналитические и координационные способности.[8] Обладание этими нетехническими навыками позволяет пилотам и членам экипажа эффективно и эффективно выполнять свои обязанности.

Компоненты ТЕА

Следующие компоненты представляют собой методы, которые помогают предоставить данные для ТЕА.

Тренинг по наблюдению за LOSA

Тренинг для экспертов LOSA включает в себя два занятия: обучение процедурным протоколам и концепциям и классификациям ТЕА.[9] Стажер LOSA обучается сначала находить данные, а затем кодировать их для обеих сессий, во время которых член экипажа должен демонстрировать «этикет LOSA» — способность уведомить пилота о том, почему он или она не смог обнаружить ошибку или угрозу. после полета. В обязанности пилота входит его или ее мнение о том, какие проблемы безопасности могли отрицательно повлиять на их работу. Затем стажер программы LOSA должен записать конкретные реакции пилота, а затем кодировать производительность, используя поведенческие маркеры. Порядок записи следующий: а) фиксировать видимые угрозы; б) идентифицировать типы ошибок, реакции экипажа и конкретные результаты; и c) использовать CRM поведенческие маркеры для оценки экипажа.[10]

Наблюдатели, наконец, запишут общий ответ пилота по 4-балльной системе. Шкала Лайкерта: 1) плохо, 2) незначительно, 3) хорошо и 4) отлично. Затем данные количественно оцениваются и заносятся в таблицу, как показано в следующем формате:[9]

Планирование и исполнение выступления

Задача Описание задания Комментарии Рейтинг
Перекрестная проверка монитора Активный мониторинг экипажей Ситуационная осведомленность поддерживается Выдающийся
Брифинг СОП Провели необходимые брифинги Глубокое понимание процедур
Управление непредвиденными обстоятельствами Сообщайте стратегии Хорошее управление угрозами и ошибками.
Выявленные угрозы Удалось Неуправляемый *Частота (N)
Управления воздушным движением 17 2 19
Эксплуатационное давление авиакомпании 9 0 9
Погода 6 6 12

Частота — это общее количество возникших угроз и обозначается N.

Категории ЛОСА

LOSA выделяет три основные категории, которые необходимо регистрировать:

  • Угрозы внешние факторы или ошибки[9] которые находятся вне зоны влияния летных экипажей. Это увеличивает сложность обычных операций, поскольку может произойти неожиданно; пилоты и летные экипажи могут быть не в состоянии спланировать и полностью исследовать причину угрозы, если она возникает внезапно во время полета. Примерами угроз являются погода, местность, сбои в работе самолета и другие внешние ошибки, связанные с персоналом, отвечающим за выполнение полетов, кроме членов кабины экипажа. Нестандартный уход, ошибки стратегии принятия решений, процедурные ошибки и отклонения протокола также являются примерами внешних факторов.[11] Эксперт LOSA, сидящий на откидное сиденье,[12] должны записывать такие угрозы. Исследование работы экипажа с использованием подхода ТЕА показало, что капитан, который спал менее 6 часов за день до обычного расписания полетов, плохо справлялся с угрозами.[13] Старшие офицеры испытал разочарование и опытные экипажи Повышенная эмоциональная активность (HEA) в результате ограниченного сна. Понимание HEA как основной части подхода TEM важно при выполнении обычных полетов.[14]
  • Ошибки вызваны действиями или бездействием человека, которые увеличивают вероятность неблагоприятного события.[11] Эти ошибки возникают из-за суждений экипажа и проблем со связью. Разница между ошибкой и угрозой заключается в том, что ошибка может быть быстро идентифицирована при тщательном внимании, а члены экипажа могут найти быстрые решения для ее устранения. Таким образом, влияние ошибки можно быстро уменьшить при правильном управлении. Примеры ошибок включают процедурные ошибки (ошибки или недостаточное внимание к текущей задаче) и нарушение СОП (умышленное или непреднамеренное). Хотя членов экипажа поощряют не бояться признания своих ошибок, они должны уметь критиковать себя, поскольку процесс обучения помогает им понять потенциальную опасность, которую представляют другие члены экипажа.[1]
  • Нежелательные состояния самолета — конфигурации или обстоятельства воздушного судна, вызванные ошибкой человека или внешними факторами.[9] Управление непреднамеренными состояниями жизненно важно, поскольку они могут привести к серьезным авиационным происшествиям. Например, проблемы с навигацией на дисплее в кабине могут привести к принятию пилотом неверных решений, что может привести к травмам или смертельному исходу как у пассажиров, так и у членов экипажа.

Процесс изменения безопасности

Процесс изменения безопасности (SCP), который является частью LOSA, является формальным механизмом, который авиакомпании может использоваться для выявления активных и скрытых угроз для выполнения полетов.[15] Это руководство, в котором подробно рассказывается о том, что представляет собой непосредственную угрозу для текущих операций или кто ее создает. В прошлом данные SCP основывались на расследовании несчастных случаев или инцидентов, опыте и интуиции, но в настоящее время SCP больше фокусируется на предшественниках несчастных случаев.[15] Есть несколько этапов проведения SCP:[15]

Модель процесса изменения безопасности (SCP)
1. Собирать вопросы безопасности (эксперт LOSA) 2. Провести подробный анализ рисков / данных. 3. Определите стратегии улучшения
8. Внесите изменения. Процесс изменения безопасности 4. Анализ рисков
7. Обратите внимание на влияние изменений. 6. Примените изменения к операциям. 5. Финансирование изменений

Неназванная авиакомпания проводила базовые наблюдения с 1996 по 1998 год с использованием определенных данных SCP и LOSA для повышения культуры безопасности своей организации, и результаты были положительными. Уровень обнаружения ошибок экипажем был значительно увеличен до 55%, что означает, что экипажи смогли обнаружить около 55% ошибок, которые они вызвали.[15] Снижение на 40% ошибок, связанных с выполнением контрольных списков, и сокращение на 62% нестабилизированных подходов (удары в хвост, управляемый полет на местности, экскурсии по взлетно-посадочной полосе и др.).[15] Надлежащий просмотр и управление данными SCP и LOSA может предотвратить дальнейшие катастрофы при выполнении полетов.

Смотрите также

  • Классификация несчастных случаев
  • Авиационная безопасность
  • Управление ресурсами экипажа
  • Ошибка пилота
  • Управление ошибками
  • Проклятие опыта

Рекомендации

  1. ^ а б c Деккер, Сидней; Лундстрем, Йохан (май 2007 г.). «От управления угрозами и ошибками (TEM) к устойчивости». Журнал человеческого фактора и аэрокосмической безопасности: 1. Получено 6 октября 2015.
  2. ^ Маурино, Дэн (18 апреля 2005 г.). «Управление угрозами и ошибками (TEM)» (PDF). Координатор программы по безопасности полетов и человеческому фактору — ИКАО. Канадский семинар по безопасности полетов (CASS): 1. Получено 6 октября 2015.
  3. ^ Бэнкс, Ян. «Презентация SafeSkies по управлению угрозами и ошибками (TEM)» (PDF). Получено 19 октября 2015.
  4. ^ а б Томас, Мэтью (2004). «Предсказатели управления угрозами и ошибками: определение основных нетехнических навыков и их значение для проектирования систем обучения». Международный журнал авиационной психологии. 14 (2): 207–231. Дои:10.1207 / s15327108ijap1402_6. S2CID  15271960. Получено 24 октября 2015.
  5. ^ а б Эрл, Лори; Мюррей, Патрик; Бейтс, Пол (2011). «Аудит безопасности полетов на линиях (LOSA) для управления безопасностью полетов в отдельных пилотных операциях (LOSA: SP) в Австралии и Новой Зеландии». Aeronautica (Центр стратегических аэрокосмических исследований Университета Гриффита) (1): 2.
  6. ^ Томас, Мэтью (2003). «Оперативная точность в обучении на основе моделирования: использование данных анализа управления угрозами и ошибками при проектировании учебных систем» (PDF). Труды SimTecT2003: Конференция по моделированию: 2. Получено 19 октября 2015.
  7. ^ Томас, Мэтью; Петрилли, Рене (январь 2006 г.). «Знакомство с экипажем: опыт эксплуатации, нетехнические характеристики и управление ошибками» (PDF). Авиация, космос и экологическая медицина. 77 (1). Получено 25 октября 2015.
  8. ^ Секстон, Дж. Брайан; Томас, Эрик; Хельмрайх, Роберт (март 2000). «Ошибки, стресс и совместная работа в медицине и авиации: перекрестные исследования». Британский медицинский журнал. 320 (7273): 745–749. Дои:10.1136 / bmj.320.7237.745. ЧВК  27316. PMID  10720356. Получено 25 октября 2015.
  9. ^ а б c d Эрл, Лори; Бейтс, Пол; Мюррей, Патрик; Глендон, Ян; Крид, Питер (2012). «Разработка аудита безопасности полетов с одним пилотом: экспериментальное исследование в авиации». Авиационная психология и прикладные человеческие факторы. 2: 49–61. Дои:10.1027 / 2192-0923 / a000027. HDL:10072/49214. Получено 24 октября 2015.
  10. ^ Leva, M.C .; и другие. (Август 2008 г.). «Развитие нового отчета о человеческом факторе -« Уникального отчета », облегчающего проверку летным экипажем характеристик / операций в рамках системы управления безопасностью полетов авиакомпании». Эргономика. 53 (2): 164–183. Дои:10.1080/00140130903437131. PMID  20099172. S2CID  32462406.
  11. ^ а б Эдвард; и другие. (Февраль 2015 г.). «Национальное управление по аэронавтике и исследованию космического пространства угроза и ошибка модель, применяемая в детской кардиохирургии: циклы ошибок предшествуют 85% смертей пациентов ». Журнал торакальной и сердечно-сосудистой хирургии. 149 (2): 496–507.e4. Дои:10.1016 / j.jtcvs.2014.10.058. PMID  25726875.
  12. ^ Кирнс, Сюзанна; Саттон, Дженнифер (апрель 2013 г.). «Обзор разговоров в ангаре: использование историй как натуралистический метод информирования об угрозах и обучении управлению ошибками». Человеческие факторы. 55 (2): 267–77. Дои:10.1177/0018720812452127. PMID  23691823. S2CID  19549684.
  13. ^ Томас, Мэтью; Фергюсон, Салли (июль 2010 г.). «Предыдущий сон, предыдущий пробуждение и работа экипажа во время нормальных полетов». Авиация, космос и экологическая медицина. 81 (7): 665–70. Дои:10.3357 / ASEM.2711.2010. PMID  20597246.
  14. ^ Друри, Артур; Фергюсон, Салли; Томас, Мэтью (август 2011 г.). «Ограниченный сон и негативные аффективные состояния у коммерческих пилотов во время полетов на короткие расстояния». Анализ и предотвращение аварий. 45: 80–84. Дои:10.1016 / j.aap.2011.09.031. PMID  22239937.
  15. ^ а б c d е «Аудит безопасности полетов (LOSA)» (PDF). Журнал ИКАО (Первое издание): 25–29. 2002 г.. Получено 18 ноября 2015.

Ошибки пилотов. Научный подход к авиации.

Рассмотреть причины всех ошибок пилота невозможно даже в очень большой книге. Далее будут рассмотрены самые трудные для расследования ошибки, совершенные в консустальном состоянии, т.е. тогда, когда и условия полета, и состояние пилота были совершенно нормальными. О сложности расследования такого рода ошибок говорит, в частности, следующий факт.

Когда мы просили пилотов-инструкторов объяснить, почему иногда пилоты забывают выпустить шасси на посадке, они в один голос отвечали, что такого в принципе быть не может, что это мистика какая-то и объяснению эти случаи не поддаются. Сами пилоты, забывшие выпустить шасси, тоже говорили, что ума не приложат, как это могло случиться.

Полезные ссылки:

  • Классификации и подходы в исследованиях факторов ошибок пилотов

  • Идентификации ошибок пилота

  • Определение и классификация ошибок пилота

  • Решения принимаемые оператором и пилотом. (формулы)

  • Экология ресурсов пилота. «Человеческий фактор».

  • Психологическая характеристика ошибочный действий пилота

  • Слабоволие пилота

  • Индикативное состояние пилота. Виртуальное состояние пилота.

  • Коллизия образов у пилота самолета

  • Консуетальное состояние пилота

  • Психическое состояние пилота

  • Разбор инцидента типа посадки с невыпущенным шасси

  • Разбор инцидента — уход на второй круг

  • Инцидент типа — уборка шасси на пробеге

  • Экспериментально-психологическое моделирование ошибок пилота

  • Принцип операционализации — принцип в борьбы с ошибками в авиации

  • Операционализация за счет субъективных средств в авиации. Пример.

  • Принцип усложненных элементов управления самолета. Научно.

  • Примеры операционализации в авиационном мире.

Ошибки пилотов

Ошибки пилотов

Существует много разных ошибок, совершенных в консуетальном состоянии. Все они связаны с вполне объективными, т.е. не зависящими от сознания и воли пилота нарушениями функционирования образа полета. Рассмотрим некоторые из них.

Функциональные нарушения — это несоответствие образа его месту. Например, замена одного образа другам: при отказе двигателя пилот правильно совершает все положенные процедуры по отключению двигателя, но с элементами управления другого — работающего — двигателя.

Нарушения состояния — образ или какой-либо его элемент слишком слаб или слишком силен (энергетически насыщен) в сравнении с другими образами или его же элементами для того, чтобы выполнять надлежащую роль. Например, ощущение накрененности горизонта при восприятии неровной кромки облаков иногда бывает столь сильным, что создает у пилота ощущение накрененности самолета, хотя он реально находится в горизонтальном полете, и тем самым вынуждает пилота накренить самолет.

Элементарные нарушения — нарушения на уровне элементов. В качестве таковых можно, например, привести такое образование, как псевдодействие (о нем см. ниже).

Структурные нарушения — недостаточность или избыточность элементов и связей между ними. Например, бывает так, что при полете на тренажере индикатор высоты уже давно стоит на нулевой отметке, а пилот продолжает управлять самолетом. Это означает, что значения высоты в образе полета нет.

Нарушения целостности — отсутствие четких (непрерывных) границ образа. Например, при пролете облака в гомогенной среде, когда глазу не за что ”зацепиться”, иногда у пилота создается впечатление падения самолета. Причем падения не по законам аэродинамики (пикирование или планирование с потерей высоты), а как в лифте — вертикально вниз, но в самолете, находящемся в горизонтальном положении. Этот мираж пилот часто не может отличить от реальности, т.е. образуется образ, сочетающий в себе элементы и образа полета (нахождения самолета в воздухе, его определенного положения в пространстве), и образа падения.

Процессуальные нарушения — нарушения процесса актуализации образа. Пример тому — виртуальные состояния.

Средовые нарушения — нарушения взаимосвязи со средой. Например, ”случайное” отключение исправного двигателя при запуске отказавшего, совершенное вследствие определенной биомеханики движения и конструкции пульта управления

Каждый акт деятельности в процессе своего осуществления проходит три фазы:

  • еще не выполнен
  • выполняется
  • уже выполнен

Каждой из этих фаз соответствует определенное состояние сознания:

  • невыполненному — ожидание (намерение выполнить)
  • выполняемому — актуальность
  • выполненному — достигнутость.

 В процессе профессиональной деятельности текущий акт может быть неожиданно прерван необходимостью выполнения какого-то другого экстренного акта. Это прерывание приводит к появлению структурно неполноценных актов, как прерванного, так и прерывающего. В принципе незавершенность акта заставляет человека вновь вернуться к прерванному действию. Однако бывает так, что сочетание одного неполноценного акта с другим порождает такой комплекс, который структурно является целостным. Такие комплексы называются псевдодействиями. Псевдодействие приводит к неадекватному осознанию осуществляемой деятельности. Так, состояние намерения совершить штатный акт может быть напряжено с состоянием актуальности и достигнутое™ другого акта, неожиданно прервавшего первый, и породить уверенность в совершении штатного акта.

Ошибки пилотов

Ошибки пилотов

Таким образом, одним из механизмов появления ошибок в консуетальном состоянии пилота является образование псевдодействий, переживаемых пилотом как целостные акты, т.е. ожидаемые — актуализируемые — с достигнутым результатом. Псевдодействие есть результат сопряжения взаимно дополнительных фрагментов разных актов. Основным условием такого сопряжения является высокая операционализация одного из актов.

Акты бывают двух видов: действие и операция.

  • Действие — такой акт, который полностью контролируется сознанием, находится в центре внимания.
  • Операция лишь частично контролируется, находится на периферии внимания. Человек может по своему произволу или по необходимости переводить акт из центра внимания на периферию и наоборот.

Этим операция отличается от автоматизма, который никогда не меняет своего статуса автоматического акта. Выполнение акта на уровне, операции дает возможность человеку выполнять два акта одновременно — за счет неполноценности контроля выполнения одного из них. В рассматриваемых нами случаях акт, в котором возникла ошибка, выполняется на уровне операции и контролируется лишь его структурная полнота. А так как образуется псевдодействие — структурно полноценный акт, то ошибочное действие переживается как правильно выполненное.

Поэтому оператор не осознает такие ошибки и не возвращается к прерванной деятельности, будучи уверенным, что все сделал правильно.

Рассмотрены психологические причины ошибочных действий пилотов, приведена классификация ошибок. Специальному анализу подвергнуты случаи посадки самолета на фюзеляж. Предложены психологические и технические средства предупреждения ошибок не выпуска шасси при посадке и уборке шасси на пробеге.

Для пилотов, инструкторов-методистов, преподавателей летных училищ, а также специалистов в области психологии и эргономики.

Уже само по себе частое упоминание в научной и публицистической литературе об ошибках человека является свидетельством того, что с проблемой далеко не все благополучно. Не раздалось еще ни одного утверждения о том, что ошибки уже не актуальны и что средства борьбы с ними найдены, хотя работ по проблеме ошибок написано, наверное, не меньше, чем совершено самих ошибок.

Конечно, ошибки человек совершал всегда. Но до некоторой поры они человечество не интересовали, поскольку считалось, что если человек умеет нечто делать правильно, то все нарушения есть следствие его собственной неблагоразумное, за которую он либо сам и пострадал, либо его следует наказать. Другими словами, ориентация была на правильность, на обеспечение условий и возможностей правильной деятельности, а ошибка рассматривалась, как недоразумение. Но отношение к ошибкам резко изменилось, как только было осознано, что человек неизбежно будет совершать ошибки в своей работе. Это осознание связано с появлением сложных видов деятельности, в которых ошибки сказываются не только на самом лице, допустившем ошибку, но и на других совершенно ни в тем неповинных людях. Первой такой сложной деятельностью была профессия машиниста паровоза.

Ошибка машиниста может приводить к массовым человеческим жертвам, к потере дорогостоящего оборудования и нарушению нормальной социальной жизни (например, нарушению связи между городами). Работа машиниста настолько сложна, что ни за кого нельзя поручиться в том, что он никогда не совершит ошибку в своей работе. Такая ситуация потребовала изменения отношения к организации деятельности: стало очевидным, что нельзя обеспечить абсолютную правильность деятельности, а нужно осуществлять какие-то мероприятия, нейтрализующие возникновение ошибок и их последствия.

Одним из первых в России против ошибочную программу разработал инженер-железнодорожник И. Рихтер в 80-х годах XIX столетия. Таким образом, проблеме операторских ошибок более 100 лет. С появлением новых операторских профессий и их значительным усложнением в сравнении с деятельностью машиниста паровоза актуальность темы все более возрастала. Например, с появлением самолетов с убирающимся шасси появились и случаи посадки на фюзеляж вследствие того, что пилот не выпустил шасси на посадке. С этого же времени стали возникать различные объяснения причин не выпуска шасси и предложения по предупреждению такого рода происшествий. Но несмотря на то большое внимание, которое уделено этим инцидентам, они до сих пор происходят. Это означает, что в их анализе упущен какой-то существенный момент.

Ошибки пилотов 2

Ошибки пилотов

С психологической точки зрения таким упущением является отсутствие анализа субъективной картины происшествия. Обычно забывается, что пилот обладает сознанием, а следовательно, значимость различных факторов определяется не столько их наличием, сколько характером их осознания. Поэтому при анализе ошибок необходимо описание как внешних по отношению к сознанию’ факторов, так и внутренних, т.е. необходим анализ характера отражения ситуации в сознании пилота. К сожалению, этот момент очень часто игнорируется.

Доверительное обращение к пилоту дает очень ценную информацию.

Так, наше обращение к пилотам, по чьей вине не было выпущено шасси, позволило обнаружить ряд существенных и совершенно неизвестных фактов, играющих важную роль в возникновении инцидентов, а именно: чувство уверенности пилота, совершившего ошибку, в том, что он этой ошибки не совершал.

Углубленный анализ содержания сознания пилотов возможен только при подходе к инциденту как особому единичному событию, соединяющему в неповторимый узор всю совокупность факторов: и технических, и психологических. Только такой подход продуктивен во многих случаях. Но дело в том, что в настоящее время преобладает другой подход, при котором предметом анализа являются общие свойства разных ошибок, В этом случае все специфическое нивелируется, особенно субъективные факторы. При этом теряется суть инцидента, его конкретные причины.

Avia.pro

1994 Крушение базы ВВС Фэйрчайлд B-52 , вызванное полетом самолета за пределы ее эксплуатационных возможностей. Здесь самолет находится в невосстановимом крене за доли секунды до крушения. Этот инцидент теперь используется в военной и гражданской авиации в качестве примера при обучении управлению ресурсами экипажа.

Фактическая траектория полета (красный) TWA Flight 3 от вылета до точки крушения ( контролируемый полет на местности ). Синяя линия показывает номинальную трассу Лас-Вегаса, а зеленая — типичная трасса из Боулдера. Пилот непреднамеренно использовал исходящий курс Боулдера вместо соответствующего курса Лас-Вегаса.

Аэропорты вылета / назначения и место крушения рейса 254 Вариг (серьезная навигационная ошибка, приводящая к исчерпанию топлива). Позже план полета был показан 21 пилоту крупной авиакомпании. Такую же ошибку совершили не менее 15 пилотов.

Карта катастрофы в аэропорту Линате, вызванной неправильным маршрутом руления (красным вместо зеленого), поскольку диспетчерская не дала четких инструкций. Авария произошла в густом тумане.

Катастрофа в аэропорту Тенерифе теперь служит хрестоматийным примером. Из-за нескольких недоразумений рейс KLM попытался взлететь, пока рейс Pan Am все еще находился на взлетно-посадочной полосе. Аэропорт принимал необычно большое количество коммерческих авиалайнеров, что привело к нарушению нормального использования рулежных дорожек.

Ошибка пилота обычно относится к авиационному происшествию, в котором действие или решение, принятое пилотом, явилось причиной или способствовавшим фактором, приведшим к аварии, но также включает неспособность пилота принять правильное решение или предпринять надлежащие действия. Ошибки — это преднамеренные действия, которые не приводят к желаемым результатам. Чикагская конвенция определяет авиационное происшествие как «происшествие, связанное с эксплуатацией воздушного судна […], в котором […] человек получает смертельные или серьезные травмы […], за исключением случаев, когда травмы […] причинены другими лицами «. Следовательно, определение «ошибки пилота» не включает умышленное столкновение (и такое падение не является несчастным случаем).

Причины ошибки пилота включают психологические и физиологические ограничения человека. В программы обучения пилотов внедрены различные формы управления угрозами и ошибками, чтобы научить членов экипажа действовать в надвигающихся ситуациях, возникающих в ходе полета.

Учет влияния человеческого фактора на действия пилотов в настоящее время считается стандартной практикой следователями авиационных происшествий при изучении цепочки событий, приведших к аварии.

Описание

Современные специалисты по расследованию авиационных происшествий избегают слов «ошибка пилота», поскольку их работа заключается в установлении причины аварии, а не в распределении виновных. Более того, любая попытка изобличить пилотов не означает, что они являются частью более широкой системы, которая, в свою очередь, может быть причиной их усталости, рабочего напряжения или отсутствия подготовки. Поэтому Международная организация гражданской авиации (ИКАО) и ее государства-члены приняли модель причинно-следственной связи Джеймса Ризона в 1993 году, чтобы лучше понять роль человеческого фактора в авиационных происшествиях.

Тем не менее, ошибка пилота является основной причиной авиационных происшествий. В 2004 году он был определен как основная причина 78,6% катастрофических авиационных происшествий (GA) и как основная причина 75,5% авиационных происшествий в США . Есть несколько факторов, которые могут вызвать ошибку пилота; Ошибки в процессе принятия решений могут быть вызваны привычными тенденциями, предубеждениями, а также сбоями в обработке поступающей информации. Для пилотов самолетов в экстремальных обстоятельствах эти ошибки с высокой вероятностью могут привести к гибели людей.

Причины ошибки пилота

Пилоты работают в сложных условиях и регулярно подвергаются значительному ситуационному стрессу на рабочем месте, вызывая ошибку пилота, которая может привести к угрозе безопасности полетов. Хотя авиационные происшествия случаются нечасто, они хорошо заметны и часто приводят к значительному количеству погибших. По этой причине исследования причинных факторов и методологий снижения риска, связанного с ошибкой пилота, являются исчерпывающими. Ошибка пилота является следствием физиологических и психологических ограничений, присущих человеку. «Причины ошибки включают усталость , загруженность и страх, а также когнитивную перегрузку , плохое межличностное общение , несовершенную обработку информации и неправильное принятие решений». В течение каждого полета экипажи по своей сути подвергаются множеству внешних угроз и совершают ряд ошибок, которые могут отрицательно повлиять на безопасность самолета.

Угрозы

Термин «угроза» определяется как любое событие, «внешнее по отношению к влиянию летного экипажа , которое может повысить эксплуатационную сложность полета». Угрозы могут быть далее разбиты на угрозы окружающей среде и угрозы авиакомпаний. Угрозы окружающей среде в конечном итоге не зависят от членов экипажа и авиакомпании, поскольку они не имеют никакого влияния на «неблагоприятные погодные условия , недостатки управления воздушным движением, столкновения с птицами и пересеченную местность». И наоборот, летный экипаж не может управлять угрозами авиакомпании, но может контролироваться руководством авиакомпании. Эти угрозы включают в себя «сбои в работе самолета, перебои в работе кабины, рабочее давление, ошибки / события на земле / на рампе, события и перерывы в работе кабины, ошибки наземного обслуживания и несоответствия в руководствах и схемах».

Ошибки

Термин «ошибка» определяется как любое действие или бездействие, ведущее к отклонению от командных или организационных намерений. Ошибка возникает из-за физиологических и психологических ограничений человека, таких как болезнь, прием лекарств, стресс, злоупотребление алкоголем / наркотиками, усталость, эмоции и т. Д. Ошибка неизбежна для человека и в первую очередь связана с операционными и поведенческими сбоями. Ошибки могут варьироваться от неправильной настройки высотомера и отклонений от курса полета до более серьезных ошибок, таких как превышение максимальной скорости конструкции или забывание опустить закрылки для посадки или взлета.

Принимать решение

Причины негативного сообщения об авариях включают чрезмерную занятость персонала, запутанные формы ввода данных, отсутствие обучения и недостаточного образования, отсутствие обратной связи с персоналом по сообщаемым данным и карательную организационную культуру. Вигманн и Шаппелл изобрели три когнитивные модели для анализа примерно 4000 факторов пилотов, связанных с более чем 2000 авиационными происшествиями ВМС США. Хотя три когнитивные модели имеют небольшие различия в типах ошибок, все три приводят к одному и тому же выводу: ошибки в суждениях. Три шага — это ошибки принятия решений, постановки целей и выбора стратегии, и все они были тесно связаны с первичными авариями. Например, 28 декабря 2014 года рейс 8501 AirAsia , на борту которого находились семь членов экипажа и 155 пассажиров, потерпел крушение в Яванском море из-за нескольких фатальных ошибок, допущенных капитаном в плохих погодных условиях. В этом случае капитан решил превысить максимальную скорость набора высоты для коммерческого самолета, что вызвало критический срыв, из которого он не смог выйти.

Управление угрозами и ошибками (TEM)

TEM включает в себя эффективное обнаружение внутренних или внешних факторов, которые могут снизить безопасность полетов воздушного судна, и реагирование на них. Методы обучения воспроизводимости стресса ТЕА или надежности работы в повторяющихся ситуациях. ТЕА направлена ​​на подготовку экипажей с «координационными и когнитивными способностями, чтобы справляться как с рутинными, так и с непредвиденными неожиданностями и аномалиями». Желаемый результат обучения ТЕА — развитие «устойчивости». В этом контексте отказоустойчивость — это способность распознавать сбои, которые могут возникнуть во время выполнения полетов, и действовать в соответствии с ними. Обучение ТЕА происходит в различных формах с разной степенью успеха. Некоторые из этих методов обучения включают сбор данных с использованием аудита безопасности полетов на линии (LOSA), внедрение системы управления ресурсами экипажа (CRM), управление задачами кабины экипажа (CTM) и интегрированное использование контрольных списков как в коммерческой авиации, так и в авиации общего назначения . Некоторые другие ресурсы, встроенные в большинство современных самолетов, которые помогают минимизировать риск и управлять угрозами и ошибками, — это бортовые системы столкновения и предотвращения столкновений (ACAS) и системы предупреждения о приближении к земле (GPWS). За счет консолидации бортовых компьютерных систем и проведения надлежащей подготовки пилотов авиакомпании и члены экипажа стремятся снизить неотъемлемые риски, связанные с человеческим фактором.

Аудит безопасности линейных операций (LOSA)

LOSA — это структурированная программа наблюдений, предназначенная для сбора данных для разработки и улучшения мер противодействия эксплуатационным ошибкам. Посредством процесса аудита обученные наблюдатели могут собирать информацию о стандартных процедурах, протоколе и процессах принятия решений, которые летные экипажи выполняют при столкновении с угрозами и ошибками во время нормальной эксплуатации. Этот управляемый данными анализ управления угрозами и ошибками полезен для изучения поведения пилота в отношении ситуационного анализа. Он обеспечивает основу для дальнейшего внедрения процедур безопасности или обучения, чтобы помочь уменьшить ошибки и риски. Наблюдатели на проверяемых рейсах обычно наблюдают следующее:

  • Возможные угрозы безопасности
  • Как члены экипажа устраняют угрозы
  • Ошибки, которые порождают угрозы
  • Как члены экипажа справляются с этими ошибками (действие или бездействие)
  • Определенное поведение, которое, как известно, связано с авиационными происшествиями и инцидентами

LOSA была разработана, чтобы помочь методам управления ресурсами экипажа в сокращении человеческих ошибок при выполнении сложных полетов. LOSA предоставляет полезные данные, которые показывают, сколько ошибок или угроз встречается в каждом полете, количество ошибок, которые могли привести к серьезной угрозе безопасности, и правильность действий или бездействия экипажа. Эти данные оказались полезными при разработке методов CRM и определении того, какие проблемы необходимо решать в процессе обучения.

Управление ресурсами экипажа (CRM)

CRM — это «эффективное использование всех доступных ресурсов отдельными лицами и командами для безопасного и эффективного выполнения миссии или задачи, а также выявления и управления условиями, которые приводят к ошибке». Обучение CRM интегрировано и является обязательным для большинства программ обучения пилотов и является общепринятым стандартом для развития навыков человеческого фактора для экипажей самолетов и авиакомпаний. Хотя универсальной программы CRM не существует, авиакомпании обычно настраивают свое обучение так, чтобы оно наилучшим образом соответствовало потребностям организации. Принципы каждой программы обычно тесно связаны. По данным ВМС США, существует семь важнейших навыков CRM:

  • Принятие решений — использование логики и суждений для принятия решений на основе доступной информации
  • Напористость — готовность участвовать и высказывать определенную позицию до тех пор, пока не убедятся фактами, что другой вариант более правильный.
  • Анализ миссии — способность разрабатывать краткосрочные и долгосрочные планы действий в чрезвычайных ситуациях
  • Коммуникация — ясная и точная отправка и получение информации, инструкций, команд и полезной обратной связи.
  • Лидерство — способность направлять и координировать действия пилотов и членов экипажа.
  • Адаптивность / гибкость — способность изменять образ действий в связи с изменением ситуации или появлением новой информации.
  • Ситуационная осведомленность — способность воспринимать окружающую среду во времени и пространстве и понимать ее значение.

Эти семь навыков составляют критически важную основу для эффективной координации действий экипажей. С развитием и использованием этих основных навыков летные экипажи «подчеркивают важность выявления человеческого фактора и динамики команды для уменьшения человеческих ошибок, которые приводят к авиационным сбоям».

Применение и эффективность CRM

С момента внедрения CRM примерно в 1979 году, в связи с необходимостью расширения исследований по управлению ресурсами со стороны НАСА , в авиационной отрасли произошла огромная эволюция применения процедур обучения CRM. Приложения CRM разрабатывались на протяжении нескольких поколений:

  • Первое поколение: особое внимание уделялось индивидуальной психологии и тестированию, где можно было внести коррективы в поведение.
  • Второе поколение: смещение акцента на динамику группы кабины.
  • Третья эволюция: диверсификация возможностей и акцент на обучении экипажей тому, как они должны действовать как в кабине, так и вне ее.
  • Четвертое поколение: CRM интегрировала процедуру в обучение, что позволяет организациям адаптировать обучение к своим потребностям.
  • Пятое поколение (текущее): признает неизбежность человеческой ошибки и предоставляет информацию для повышения стандартов безопасности.

Сегодня CRM реализуется посредством тренировок пилотов и экипажей, моделирования и взаимодействия с высокопоставленным персоналом и летными инструкторами, таких как брифинг и разбор полетов. Хотя трудно измерить успех программ CRM, исследования показали, что существует корреляция между программами CRM и улучшенным управлением рисками.

Управление задачами в кабине (CTM)

Здесь можно получить несколько источников информации из одного интерфейса, известного как PFD, или основного индикатора полета, с которого пилоты получают все наиболее важные показания данных.

Управление задачами из кабины (CTM) — это «пилотные операции на уровне управления, которые выполняют, когда они инициируют, контролируют, устанавливают приоритеты и завершают задачи из кабины». «Задача» определяется как процесс, выполняемый для достижения цели (например, полет к путевой точке, снижение до желаемой высоты). Обучение CTM фокусируется на обучении членов экипажа тому, как выполнять параллельные задачи, требующие их внимания. Сюда входят следующие процессы:

  • Инициирование задачи — при наличии соответствующих условий
  • Мониторинг задач — оценка прогресса и статуса задачи
  • Приоритезация задач — в зависимости от важности и срочности для безопасности
  • Распределение ресурсов — распределение человеческих и машинных ресурсов для задач, которые необходимо выполнить.
  • Прерывание задачи — приостановка задач с более низким приоритетом для выделения ресурсов задачам с более высоким приоритетом.
  • Возобновление задачи — продолжение ранее прерванных задач
  • Завершение задачи — завершение или незавершение задачи

Потребность в обучении CTM является результатом способности человеческого внимания и ограничений рабочей памяти. Члены экипажа могут посвятить больше умственных или физических ресурсов конкретной задаче, которая требует приоритета или требует немедленной безопасности воздушного судна. CTM интегрирован в программу обучения пилотов и идет рука об руку с CRM. Некоторые операционные системы самолетов достигли прогресса в помощи CTM, объединив приборы на одном экране. Примером этого является цифровой указатель ориентации, который одновременно показывает пилоту курс, воздушную скорость, скорость снижения или подъема и множество другой соответствующей информации. Такие реализации позволяют командам быстро и точно собирать информацию из нескольких источников, что высвобождает умственные способности, позволяющие сосредоточиться на других, более важных задачах.

Перед полетом военный летчик читает предполетный контрольный список. Контрольные списки гарантируют, что пилоты могут следовать рабочим процедурам, и помогают вспомнить.

Контрольные списки

Использование контрольных списков до, во время и после полетов обеспечило сильное присутствие во всех типах авиации как средство управления ошибками и снижения вероятности риска. Контрольные списки строго регламентированы и состоят из протоколов и процедур для большинства действий, необходимых во время полета. Цели контрольных списков включают «вспоминание, стандартизацию и регулирование процессов или методологий». Использование контрольных списков в авиации стало отраслевым стандартом, и заполнение контрольных списков по памяти считается нарушением протокола и ошибкой пилота. Исследования показали, что увеличение количества ошибок в суждениях и когнитивной функции мозга, а также изменения в функции памяти — это лишь некоторые из последствий стресса и усталости. Оба эти фактора неизбежны в сфере коммерческой авиации. Использование контрольных списков в аварийных ситуациях также способствует устранению неисправностей и обратному изучению цепочки событий, которые могли привести к конкретному происшествию или аварии. Помимо контрольных списков, выпускаемых регулирующими органами, такими как FAA или ИКАО , или контрольных списков, составленных производителями самолетов, у пилотов также есть личные контрольные списки качества, предназначенные для проверки их пригодности и способности управлять самолетом. Примером может служить контрольный список IM SAFE (болезнь, лекарства, стресс, алкоголь, усталость / еда, эмоции) и ряд других качественных оценок, которые пилоты могут выполнять до или во время полета для обеспечения безопасности самолета и пассажиров. Эти контрольные списки, а также ряд других дублирующих элементов, интегрированных в большинство современных систем управления воздушным судном, обеспечивают бдительность пилота и, в свою очередь, направлены на снижение риска ошибки пилота.

Известные примеры

Одним из самых известных примеров авиакатастрофы, которая была связана с ошибкой пилота, было ночное крушение рейса 401 компании Eastern Air Lines недалеко от Майами, Флорида, 29 декабря 1972 года. Капитан, первый помощник и бортинженер зациклились на неисправный свет шасси и не смог понять, что один из членов экипажа случайно ударил рычаги управления полетом, изменив настройки автопилота с горизонтального полета на медленное снижение. Когда диспетчер УВД приказал держаться над малонаселенным районом вдали от аэропорта, пока они занимаются проблемой (в результате чего на земле было видно очень мало огней, которые могли бы служить внешним ориентиром), отвлеченный летный экипаж не заметил Самолет потерял высоту, и самолет в конечном итоге врезался в землю в Эверглейдс , в результате чего погиб 101 из 176 пассажиров и членов экипажа. В последующем отчете Национального совета по безопасности на транспорте (NTSB) об инциденте летный экипаж обвинялся в том, что он не смог должным образом контролировать приборы самолета. Подробности инцидента теперь часто используются в качестве практического примера в учениях экипажей и авиадиспетчеров.

В 2004 году в США ошибка пилота была указана как основная причина 78,6% авиационных происшествий со смертельным исходом и как основная причина 75,5% авиационных происшествий в целом. В случае регулярных авиаперевозок на ошибку пилота обычно приходится чуть более половины мировых происшествий с известной причиной.

  • 28 июля 1945 г. — бомбардировщик ВВС США B-25, направлявшийся в аэропорт Ньюарк, врезался в 79-й этаж Эмпайр-стейт-билдинг после того, как пилот потерялся в густом тумане над Манхэттеном . Все трое членов экипажа погибли, а также одиннадцать служащих в здании.
  • 24 декабря 1958 г. — BOAC Bristol Britannia 312, регистрационный G-AOVD , потерпел крушение в результате управляемого полета над землей ( CFIT ) около Винктона, Англия, во время испытательного полета. Крушение было вызвано сочетанием плохой погоды и неспособности обоих пилотов правильно прочитать показания высотомера. Первый офицер и еще два человека выжили в катастрофе.
  • 3 января 1961 г. — самолет Aero Flight 311 потерпел крушение недалеко от Квевлакс , Финляндия . Все двадцать пять пассажиров погибли в результате аварии, которая стала самой смертоносной в истории Финляндии. Позднее расследование установило, что оба пилота находились в состоянии алкогольного опьянения во время полета и, возможно, их остановил пассажир во время крушения.
  • 28 февраля 1966 г. — американские астронавты Эллиот Си и Чарльз Бассетт погибли, когда их Т-38 Talon врезался в здание на улице Ламберт-Стрит. Международный аэропорт Луи в непогоду. NASA следствие пришло к выводу , что Престол летел слишком низко на его заходе на посадку.
  • 5 мая 1972 г. — рейс 112 авиакомпании Alitalia врезался в гору Лонга после того, как летный экипаж не соблюдал процедуры захода на посадку, установленные УВД. Все 115 оккупантов погибли. Это самая страшная катастрофа с участием одного самолета в истории Италии.
  • 29 декабря 1972 г. — рейс 401 компании Eastern Air Lines врезался в Эверглейдс во Флориде после того, как летный экипаж не заметил отключения автопилота самолета , будучи отвлеченным собственными попытками решить проблему с шасси. Из 176 пассажиров 75 человек выжили.
  • 27 марта 1977 г. — Катастрофа в аэропорту Тенерифе : старший пилот KLM не слышал, не понимал или не выполнял инструкции с диспетчерской вышки, в результате чего два Boeing 747 столкнулись на взлетно-посадочной полосе в Тенерифе . В самой смертоносной авиационной катастрофе в истории погибло 583 человека.
  • 28 декабря 1978 г. — рейс 173 United Airlines : капитан-инструктор авиасимулятора позволил своему Douglas DC-8 закончить топливо во время исследования проблемы с шасси. Впоследствии United Airlines изменила свою политику, запретив «время инструктора симулятора» при расчете «общего времени полета» пилота. Считалось, что одной из причин аварии является то, что инструктор может контролировать количество топлива во время тренировки на симуляторе, чтобы оно никогда не кончалось.
  • 13 января 1982 года — рейс 90 Air Florida , Боинг 737-200 с 79 пассажирами и экипажем, врезался в мост на 14-й улице и упал в реку Потомак вскоре после взлета из национального аэропорта Вашингтона , в результате чего погибло 75 пассажиров и членов экипажа, а также четыре автомобилиста. на мосту. В отчете NTSB летный экипаж обвиняется в неправильном использовании противообледенительной системы самолета .
  • 19 февраля 1985 г. — Экипаж рейса 006 China Airlines потерял контроль над своим Боингом 747SP над Тихим океаном после того, как загорелся двигатель № 4. Самолет снизился на 30 000 футов за две с половиной минуты, прежде чем был восстановлен контроль. Погибших нет, но несколько раненых, самолет серьезно поврежден.
  • 16 августа 1987 — Экипаж рейса 255 Northwest Airlines пропустил свой контрольный список для такси и не смог открыть закрылки и предкрылки самолета. Впоследствии McDonnell Douglas MD-82 не набрал достаточной подъемной силы при взлете и врезался в землю, в результате чего погибли все, кроме одного, из 155 человек на борту, а также два человека на земле. Единственным выжившим был четыре-летняя девочка по имени Сесилия Cichan, который был тяжело ранен.
  • 28 августа 1988 г. — катастрофа на авиашоу в Рамштайне : член итальянской пилотажной группы неправильно оценил маневр, в результате чего произошло столкновение в воздухе. Три пилота и 67 зрителей на земле погибли.
  • 31 августа 1988 г. — рейс 1141 авиакомпании Delta Air Lines разбился при взлете после того, как экипаж забыл открыть закрылки для увеличения подъемной силы. Из 108 пассажиров и членов экипажа, находившихся на борту, четырнадцать погибли.
  • 8 января 1989 г. — во время авиакатастрофы в Кегворте лопасть вентилятора сломалась в левом двигателе нового Боинга 737-400 , но пилоты по ошибке выключили правый двигатель. Левый двигатель в конечном итоге полностью отказал, и экипаж не смог перезапустить правый двигатель до того, как самолет разбился. Приборы на 737-400 отличались от более ранних моделей, но имитатор полета для новой модели не был доступен в Великобритании.
  • 3 сентября 1989 г. — Экипаж рейса 254 компании « Вариг» совершил ряд ошибок, в результате чего у их Боинга 737 кончилось топливо за сотни миль от курса над джунглями Амазонки. Тринадцать человек погибли в результате аварийной посадки.
  • 21 октября 1989 г. — рейс 414 компании «Тан-Сахса» врезался в холм недалеко от международного аэропорта Тонконтин в Тегусигальпе, Гондурас, из-за неправильной процедуры посадки пилота, в результате чего погиб 131 из 146 пассажиров и членов экипажа.
  • 14 февраля 1990 г. — рейс 605 авиакомпании Indian Airlines врезался в поле для гольфа недалеко от взлетно-посадочной полосы недалеко от аэропорта Индостан, Индия. Экипаж не смог подъехать после того, как по радио сообщили, насколько близко они были к земле. Самолет врезался в поле для гольфа и набережную, загорелся. Из 146 пассажиров самолета 92 погибли, включая оба экипажа. 54 пассажира выжили в результате крушения.
  • 24 ноября 1992 г. — рейс 3943 авиакомпании China Southern Airlines вылетел из Гуанчжоу в 55-минутный рейс до Гуйлиня. Во время снижения в направлении Гуйлиня на высоте 7000 футов (2100 м) капитан попытался выровнять самолет, подняв нос, и автоматический дроссель самолета был задействован для снижения. Однако экипаж не заметил, что силовой рычаг № 2 был на холостом ходу, что привело к асимметричному состоянию. Самолет разбился при спуске в аэропорт Гуйлиня, в результате чего погибли все находившиеся на борту 141 человек.
  • 23 марта 1994 г. — рейс 593 Аэрофлота , самолет Airbus A310-300 , разбился на пути в Гонконг . Капитан Ярослав Кудринский пригласил двух своих детей в кабину и разрешил им сесть за штурвал, что противоречит правилам авиакомпании. Его пятнадцатилетний сын Эльдар Кудринский случайно отключил автопилот, в результате чего самолет отклонился вправо перед погружением. Второй пилот слишком сильно завел самолет, из-за чего он заглох и начал вращаться. Пилоты в конце концов нашли самолет, но он врезался в лес, в результате чего погибли все 75 человек на борту.
  • 24 июня 1994 — B-52 терпит крушение на базе ВВС Фэйрчайлд. Катастрофа была в значительной степени связана с личностью и поведением подполковника Артура «Бада» Холланда, командующего пилотом, и запоздалой реакцией на более ранние инциденты с участием этого пилота. После прошлых историй, подполковник Марк МакГихан, командир эскадрильи ВВС США, отказался разрешить кому-либо из членов своей эскадрильи лететь с Голландией, если он (МакГихан) также не был в самолете. Эта авария теперь используется в военной и гражданской авиации в качестве примера при обучении управлению ресурсами экипажа.
  • 30 июня 1994 г. — рейс 129 Airbus Industrie во время сертификационных испытаний самолета Airbus A330-300 потерпел крушение в аэропорту Тулуза-Бланьяк . При моделировании аварийной ситуации с неработающим двигателем сразу после взлета с экстремальным расположением центра тяжести пилоты выбрали неправильные ручные настройки, из-за которых автопилот не мог удерживать самолет в воздухе, и к тому времени, когда капитан восстановил ручное управление, это было слишком поздно. Самолет был уничтожен, в результате чего погибли летный экипаж, инженер-испытатель и четыре пассажира. Комиссия по расследованию пришла к выводу, что капитан был перегружен предыдущими летными испытаниями в тот день и не смог уделить достаточно времени предполетному инструктажу. В результате Airbus пришлось пересмотреть порядок действий в аварийной ситуации при неработающем двигателе.
  • 2 июля 1994 — Рейс 1016 USAir врезался в жилой дом из-за пространственной дезориентации. 37 пассажиров погибли, самолет был уничтожен.
  • 20 декабря 1995 — Рейс 965 American Airlines , Боинг 757-200 с 155 пассажирами и восемью членами экипажа, вылетел из Майами примерно на два часа позже расписания в 1835 по восточному поясному времени (EST). Следователи полагают, что незнание пилота современной техники, установленной в Boeing 757-200, могло сыграть свою роль. Пилоты не знали своего местоположения относительно радиомаяка в Тулуа. Самолет был оборудован для передачи этой информации в электронном виде, но, согласно источникам, знакомым с расследованием, пилот, по-видимому, не знал, как получить доступ к информации. Капитан ввел неверные координаты, и самолет врезался в горы, в результате чего погибли 159 из 163 человек на борту.
  • 8 мая 1997 г. — рейс 3456 авиакомпании China Southern Airlines врезался в взлетно-посадочную полосу аэропорта Шэньчжэнь Хуантиан во время второй попытки ухода на второй круг, в результате чего погибло 35 из 74 человек, находившихся на борту. Экипаж по незнанию нарушил порядок посадки из-за плохой погоды.
  • 6 августа 1997 г. — Боинг 747-300 авиакомпании Korean Air, рейс 801 , врезался в Нимиц-Хилл, в трех милях от международного аэропорта Гуама , в результате чего погибли 228 из 254 человек, находившихся на борту. Неспособность капитана правильно выполнить неточный заход на посадку поспособствовала аварии. В NTSB заявили, что одним из возможных факторов была усталость пилотов .
  • 26 сентября 1997 — Garuda Indonesia Flight 152 , Airbus A300 , врезался в овраг, погибли все 234 человек на борту. NTSC пришел к выводу , что авария была вызвана , когда пилоты превратили самолеты в неправильном направлении, а также ошибки УВД. Факторами, способствовавшими аварии, были названы низкая видимость и невозможность активации GPWS.
  • 12 октября 1997 г. — певец Джон Денвер погиб, когда его недавно приобретенный самодельный самолет Rutan Long-EZ врезался в Тихий океан недалеко от Пасифик-Гроув, Калифорния . NTSB сообщил, что Денвер потерял управление самолетом при попытке манипулировать рукояткой переключателя топлива, которая была помещена в недоступное положение изготовителем самолета. NTSB сослался на незнание Денвера конструкции самолета как причину крушения.
  • 16 февраля 1998 г. — рейс 676 китайских авиалиний пытался приземлиться в международном аэропорту Чан Кайши, но из-за плохих погодных условий начал уход на второй круг. Однако летчики случайно отключили автопилот и не заметили этого в течение 11 секунд. Когда они это заметили, Airbus A300 вошел в стойло. Самолет врезался в шоссе и жилой район и взорвался, в результате чего погибли все 196 человек на борту, а также семь человек на земле.
  • 16 июля 1999 г. — Джон Ф. Кеннеди-младший погиб, когда его самолет « Пайпер Саратога» упал в Атлантический океан у побережья Мартас-Виньярд , штат Массачусетс . В NTSB официально заявили, что причиной крушения стало «неспособность пилота сохранить контроль над своим самолетом во время ночного снижения над водой, что было результатом пространственной дезориентации ». Кеннеди не имел сертификата на полеты по ППП , но продолжал летать после того, как погодные условия закрыли визуальные ориентиры .
  • 31 августа 1999 года — рейс 3142 авиакомпании Lineas Aéreas Privadas Argentinas (LAPA) потерпел крушение после попытки взлета с закрылками, в результате чего погибли 63 из 100 пассажиров в самолете, а также два человека на земле.
  • 31 октября 2000 г. — рейс 006 Singapore Airlines — Боинг 747-412 , взлетевший не с той взлетно-посадочной полосы в тогдашнем международном аэропорту Чан Кай-Ши. Он столкнулся со строительной техникой на взлетно-посадочной полосе, загорелся и погибли 83 из 179 пассажиров.
  • 12 ноября 2001 г. — рейс 587 American Airlines столкнулся с сильной турбулентностью, второй пилот слишком сильно нажал на педаль руля направления, поворачивая Airbus A300 из стороны в сторону. Из-за чрезмерного напряжения руль направления вышел из строя. Самолет A300 развернулся и врезался в жилой район, разрушив пять домов и убив 265 человек. Факторы, способствовавшие этому, включали турбулентность в следе и подготовку пилотов .
  • 24 ноября 2001 г. — рейс 3597 компании Crossair врезался в лес на подходе к взлетно-посадочной полосе 28 в аэропорту Цюриха . Это было вызвано тем, что капитан Лутц снизился ниже минимальной безопасной высоты 2400 футов на подходе к взлетно-посадочной полосе.
  • 15 апреля 2002 — Air China Flight 129 , Boeing 767-200 , разбившегося под Пусане , Южная Корея погибли 128 из 166 человек на борту. Пилот и второй пилот летели слишком низко.
  • 25 октября 2002 г. — восемь человек, включая сенатора США Пола Веллстоуна , погибли в результате авиакатастрофы недалеко от Эвлета, штат Миннесота . NTSB пришел к выводу, что «летный экипаж не контролировал и не поддерживал минимальную скорость».
  • 26 февраля 2004 — Бук 200 несущих македонский президент Борис Трайковски разбился, убив президент и восемь других пассажиров. Расследование крушения пришло к выводу, что авария была вызвана «процедурными ошибками экипажа» при заходе на посадку.
  • 3 января 2004 г. — рейс 604 авиакомпании Flash Airlines нырнул в Красное море вскоре после взлета, в результате чего погибли все 148 человек на борту. Капитан испытывал головокружение и не заметил, что его контрольная колонка наклонена вправо. Boeing 737 терпел крен до тех пор, пока он больше не мог оставаться в воздухе. Однако отчет о расследовании был оспорен.
  • 14 августа 2005 г. — Пилоты рейса 522 Helios Airways потеряли сознание, скорее всего, из-за гипоксии, вызванной не переключением наддува кабины на «Авто» во время предполетной подготовки. Boeing 737-300 разбился после того, как бежать из топлива, убивая всех на борту.
  • 16 августа 2005 г. — Экипаж рейса 708 West Caribbean Airways неосознанно (и опасно) снизил скорость McDonnell Douglas MD-82 , в результате чего он попал в стойло. Ситуация была неправильно обработана экипажем, капитан полагал, что двигатели загорелись, в то время как первый офицер, который знал о сваливании, попытался исправить его. Самолет врезался в землю недалеко от Мачикеса , Венесуэла , в результате чего погибли все 160 человек на борту.
  • 3 мая 2006 г. — рейс 967 компании «Армавиа» потерял управление и упал в Черное море при подходе к аэропорту Сочи-Адлер в России, в результате чего погибли все 113 человек на борту. Пилоты были утомлены и летели в стрессовых условиях. Их уровень стресса был превышен пределом, из-за чего они потеряли ситуационную осведомленность.
  • 27 августа 2006 г. — рейс 5191 компании Comair не смог подняться в воздух и разбился в аэропорту Блу Грасс после того, как летный экипаж по ошибке попытался взлететь со вспомогательной взлетно-посадочной полосы, которая была намного короче предполагаемой взлетно-посадочной полосы. Все, кроме одного, из 50 человек, находившихся на борту самолета, погибли, включая 47 пассажиров. Единственным выжившим оказался первый офицер полета Джеймс Полхинке.
  • 1 января 2007 г. — Экипаж рейса 574 Adam Air был озабочен неисправностью инерциальной системы отсчета , которая отвлекла их внимание от пилотажных приборов, позволив незаметно увеличивать снижение снижения и угол крена. Похоже, что они стали пространственно дезориентированными, пилоты не смогли обнаружить и надлежащим образом остановить снижение достаточно быстро, чтобы предотвратить потерю управления . В результате самолет разбился в воздухе и упал в воду, в результате чего погибли все 102 человека на борту.
  • 7 марта 2007 г. — рейс 200 компании Garuda Indonesia : плохое управление ресурсами экипажа и отказ от выпуска закрылков привели к тому, что самолет приземлился на «невообразимой» скорости и после приземления вылетел за пределы взлетно-посадочной полосы. Из 140 оккупантов 22 погибли.
  • 17 июля 2007 г. — рейс 3054 авиакомпании TAM Airlines : заклинило реверсивное устройство на правом двигателе Airbus A320 . Хотя оба члена экипажа знали, что капитан применил устаревшую процедуру торможения, самолет пролетел мимо взлетно-посадочной полосы и врезался в здание, в результате чего погибли все 187 человек на борту, а также 12 человек на земле.
  • 20 августа 2008 г. — экипажу рейса 5022 Spanair не удалось открыть закрылки и предкрылки MD-82. Самолет потерпел крушение после взлета, в результате чего погибли 154 из 172 пассажиров и членов экипажа, находившихся на борту.
  • 12 февраля 2009 г. — рейс 3407 авиакомпании Colgan Air (выполнявший рейс Continental Connection) вошел в стойло и врезался в дом в Кларенс-центре, Нью-Йорк, из-за отсутствия ситуационной осведомленности о воздушной скорости капитаном и старшим помощником и неправильной реакцией капитана на система предупреждения о срыве сваливания на самолет. Все 49 человек, находившиеся на борту самолета, погибли, а также один человек, находившийся в доме.
  • 1 июня 2009 г. — рейс 447 авиакомпании Air France вошел в стойло и потерпел крушение в Атлантическом океане из- за отказа трубки Пито и неправильных действий управления первым помощником . Все 216 пассажиров и двенадцать членов экипажа погибли.
  • 10 апреля 2010 — 2010 Крушение Ту-154 ВВС Польши : во время снижения в направлении российского аэропорта Смоленск-Север экипаж президентского самолета Польши проигнорировал автоматические предупреждения и попытался совершить опасную посадку в сильном тумане. Туполев Ту-154М спустился слишком низко и врезался в соседний лес; все оккупанты были убиты, в том числе президент Польши Лех Качиньский , его жена Мария Качиньская , а также многочисленные правительственные и военные чиновники.
  • 12 мая 2010 г. — рейс 771 авиакомпании Afriqiyah Airways . Самолет разбился примерно на 1200 метров (1300 ярдов; 3900 футов) от взлетно-посадочной полосы 09, за пределами периметра международного аэропорта Триполи, в результате чего погибли все, кроме одного, из 104 человек на борту. Единственным выжившим был 9-летний мальчик по имени Рубен Ван Assouw. 28 февраля 2013 года Управление гражданской авиации Ливии заявило, что причиной крушения стала ошибка пилота. Факторами, которые способствовали крушению, были отсутствие / недостаточное управление ресурсами экипажа, сенсорные иллюзии и действия первого офицера на бортовую рукоять самолета; Усталость также могла сыграть роль в аварии. В окончательном отчете приводятся следующие причины: отсутствие у пилотов общего плана действий во время захода на посадку, последний заход на посадку продолжается ниже минимальной высоты принятия решения без получения визуального ориентира с земли; ненадлежащее применение входных сигналов управления полетом во время ухода на второй круг и после активации системы осведомленности и предупреждения о местности; и неспособность летного экипажа отслеживать и контролировать траекторию полета.
  • 22 мая 2010 г. — рейс 812 авиакомпании Air India Express пролетел мимо взлетно-посадочной полосы в аэропорту Мангалора , в результате чего погибли 158 человек. Самолет приземлился в 610 метрах (670 ярдов) от обычной точки приземления после крутого снижения. Записи CVR показали, что капитан спал и проснулся за несколько минут до приземления. Его недостаток бдительности заставил самолет приземлиться очень быстро и круто, и он вылетел за край взлетно-посадочной полосы.
  • 28 июля 2010 г. — капитан рейса 202 Airblue запутался с ручкой управления курсом и подумал, что он выполнил правильное действие по развороту самолета. Однако из-за того, что он не потянул ручку управления курсом, поворот не был выполнен. Самолет Airbus A321 сбился с пути и врезался в холмы Маргалла, в результате чего погибли все 152 человека на борту.
  • 20 июня 2011 г. — рейс 9605 компании «РусЭйр» потерпел крушение на автостраде во время последнего захода на посадку в аэропорт Петрозаводск на западе России после того, как находящийся в состоянии алкогольного опьянения штурман призвал капитана приземлиться в сильном тумане. Лишь пятеро из 52 человек, находившихся на борту самолета, выжили в катастрофе.
  • 6 июля 2013 г. — хвост рейса 214 авиакомпании Asiana Airlines врезался в дамбу недалеко от взлетно-посадочной полосы 28L в международном аэропорту Сан-Франциско . Из 307 пассажиров и членов экипажа три человека погибли и 187 получили ранения, когда самолет скатился по взлетно-посадочной полосе. Следователи заявили, что авария была вызвана более низкой, чем обычно, скоростью захода на посадку и неправильной траекторией захода на посадку.
  • 23 июля 2014 г. — рейс 222 авиакомпании TransAsia Airways задел деревья и врезался в шесть домов в жилом районе в деревне Сиси на острове Пэнху, Тайвань. Из 58 человек, находившихся на борту самолета, в катастрофе выжили только десять человек. Капитан был самоуверен в своем мастерстве и намеренно снизился и откатил самолет влево. Члены экипажа не осознавали, что они находились на опасно малой высоте, и самолет собирался столкнуться с землей за две секунды до крушения.
  • 28 декабря 2014 г. — рейс 8501 авиакомпании Indonesia AirAsia потерпел крушение в Яванском море в результате аэродинамического сваливания из-за ошибки пилота. Самолет превысил скороподъемность, намного превышающую эксплуатационные пределы. Все находившиеся на борту 155 пассажиров и 7 членов экипажа погибли.
  • 6 февраля 2015 г. — рейс 235 авиакомпании TransAsia Airways : загорелся один из двигателей ATR 72. Поскольку самолеты могут летать только на одном двигателе, пилот затем выключает один из двигателей. Однако он случайно выключил двигатель, который работал нормально, и оставил самолет без мощности, после чего безуспешно попытался перезапустить оба двигателя. Затем самолет перерезал мост и рухнул в реку Килунг, когда пилот пытался уклониться от городской местности, в результате чего 43 из 58 находившихся на борту самолета погибли.

Смотрите также

  • Летное мастерство
  • Управляемый полет на местности
  • Экологические причины авиационного стресса
  • Человеческий фактор в авиационной безопасности
  • Человеческая надежность
  • Расстройство суточного биоритма в связи с дальним перелетом
  • Рейс 007 Korean Air Lines
  • Усталость пилота
  • Сенсорные иллюзии в авиации
  • Пространственная дезориентация
  • Стресс в авиационной отрасли
  • Управление угрозами и ошибками
  • Ошибка пользователя
  • Рейс 507 авиакомпании Kenya Airways

использованная литература

From Wikipedia, the free encyclopedia

1994 Fairchild Air Force Base B-52 crash, caused by flying the aircraft beyond its operational limits. Here the aircraft is seen in an unrecoverable bank, a split second before the crash. This accident is now used in military and civilian aviation environments as a case study in teaching crew resource management.

Actual flight path (red) of TWA Flight 3 from departure to crash point (controlled flight into terrain). Blue line shows the nominal Las Vegas course, while green is a typical course from Boulder. The pilot inadvertently used the Boulder outbound course instead of the appropriate Las Vegas course.

Departure/destination airports and crash site location of Varig Flight 254 (major navigational error leading to fuel exhaustion). The flight plan was later shown to 21 pilots of major airlines. No fewer than 15 pilots committed the same mistake.

Map of the Linate Airport disaster caused by taking the wrong taxiing route (red instead of green), as control tower had not given clear instructions. The accident occurred in thick fog.

The Tenerife airport disaster now serves as a textbook example.[1] Due to several misunderstandings, the KLM flight tried to take off while the Pan Am flight was still on the runway. The airport was accommodating an unusually large number of commercial airliners, resulting in disruption of the normal use of taxiways.

The «three-pointer» design altimeter is one of the most prone to being misread by pilots (a cause of the UA 389 and G-AOVD crashes).

Pilot error generally refers to an accident in which an action or decision made by the pilot was the cause or a contributing factor that led to the accident, but also includes the pilot’s failure to make a correct decision or take proper action.[2] Errors are intentional actions that fail to achieve their intended outcomes.[3] Chicago Convention defines accident as «An occurrence associated with the operation of an aircraft […] in which […] a person is fatally or seriously injured […] except when the injuries are […] inflicted by other persons.»[4] Hence the definition of the «pilot error» does not include deliberate crash (and such crash is not an accident).

The causes of pilot error include psychological and physiological human limitations. Various forms of threat and error management have been implemented into pilot training programs to teach crew members how to deal with impending situations that arise throughout the course of a flight.[5]

Accounting for the way human factors influence the actions of pilots is now considered standard practice by accident investigators when examining the chain of events that led to an accident.[5][6]

Description[edit]

Modern accident investigators avoid the words «pilot error», as the scope of their work is to determine the cause of an accident, rather than to apportion blame. Furthermore, any attempt to incriminate the pilots does not consider that they are part of a broader system, which in turn may be accountable for their fatigue, work pressure, or lack of training.[6] The International Civil Aviation Organization (ICAO), and its member states, therefore adopted James Reason’s model of causation in 1993 in an effort to better understand the role of human factors in aviation accidents.[7]

Pilot error is nevertheless a major cause of air accidents. In 2004, it was identified as the primary reason for 78.6% of disastrous general aviation (GA) accidents, and as the major cause of 75.5% of GA accidents in the United States.[8][better source needed] There are multiple factors that can cause pilot error; mistakes in the decision-making process can be due to habitual tendencies, biases, as well as a breakdown in the processing of the information coming in. For aircraft pilots, in extreme circumstances these errors are highly likely to result in fatalities.[9]

Causes of pilot error[edit]

Pilots work in complex environments and are routinely exposed to high amounts of situational stress in the workplace, inducing pilot error which may result in a threat to flight safety. While aircraft accidents are infrequent, they are highly visible and often involve significant numbers of fatalities. For this reason, research on causal factors and methodologies of mitigating risk associated with pilot error is exhaustive. Pilot error results from physiological and psychological limitations inherent in humans. «Causes of error include fatigue, workload, and fear as well as cognitive overload, poor interpersonal communications, imperfect information processing, and flawed decision making.»[10] Throughout the course of every flight, crews are intrinsically subjected to a variety of external threats and commit a range of errors that have the potential to negatively impact the safety of the aircraft.[11]

Threats[edit]

The term «threat» is defined as any event «external to flight crew’s influence which can increase the operational complexity of a flight.»[12] Threats may further be broken down into environmental threats and airline threats. Environmental threats are ultimately out of the hands of crew members and the airline, as they hold no influence on «adverse weather conditions, air traffic control shortcomings, bird strikes, and high terrain.»[12] Conversely, airline threats are not manageable by the flight crew, but may be controlled by the airline’s management. These threats include «aircraft malfunctions, cabin interruptions, operational pressure, ground/ramp errors/events, cabin events and interruptions, ground maintenance errors, and inadequacies of manuals and charts.»[12]

Errors[edit]

The term «error» is defined as any action or inaction leading to deviation from team or organizational intentions.[10] Error stems from physiological and psychological human limitations such as illness, medication, stress, alcohol/drug abuse, fatigue, emotion, etc. Error is inevitable in humans and is primarily related to operational and behavioral mishaps.[13] Errors can vary from incorrect altimeter setting and deviations from flight course, to more severe errors such as exceeding maximum structural speeds or forgetting to put down landing or takeoff flaps.

Decision making[edit]

Reasons for negative reporting of accidents include staff being too busy, confusing data entry forms, lack of training and less education, lack of feedback to staff on reported data and punitive organizational cultures.[14] Wiegmann and Shappell invented three cognitive models to analyze approximately 4,000 pilot factors associated with more than 2,000 U.S. Navy aviation mishaps. Although the three cognitive models have slight differences in the types of errors, all three lead to the same conclusion: errors in judgment.[15] The three steps are decision-making, goal-setting, and strategy-selection errors, all of which were highly related to primary accidents.[15] For example, on 28 December 2014, AirAsia Flight 8501, which was carrying seven crew members and 155 passengers, crashed into the Java Sea due to several fatal mistakes made by the captain in the poor weather conditions. In this case, the captain chose to exceed the maximum climb rate for a commercial aircraft, which caused a critical stall from which he was unable to recover.[16]

Threat and error management (TEM)[edit]

TEM involves the effective detection and response to internal or external factors that have the potential to degrade the safety of an aircraft’s operations.[11] Methods of teaching TEM stress replicability, or reliability of performance across recurring situations.[17] TEM aims to prepare crews with the «coordinative and cognitive ability to handle both routine and unforeseen surprises and anomalies.»[17] The desired outcome of TEM training is the development of ‘resiliency’. Resiliency, in this context, is the ability to recognize and act adaptively to disruptions which may be encountered during flight operations. TEM training occurs in various forms, with varying levels of success. Some of these training methods include data collection using the line operations safety audit (LOSA), implementation of crew resource management (CRM), cockpit task management (CTM), and the integrated use of checklists in both commercial and general aviation. Some other resources built into most modern aircraft that help minimize risk and manage threat and error are airborne collision and avoidance systems (ACAS) and ground proximity warning systems (GPWS).[18] With the consolidation of onboard computer systems and the implementation of proper pilot training, airlines and crew members look to mitigate the inherent risks associated with human factors.

Line operations safety audit (LOSA)[edit]

LOSA is a structured observational program designed to collect data for the development and improvement of countermeasures to operational errors.[19] Through the audit process, trained observers are able to collect information regarding the normal procedures, protocol, and decision making processes flight crews undertake when faced with threats and errors during normal operation. This data driven analysis of threat and error management is useful for examining pilot behavior in relation to situational analysis. It provides a basis for further implementation of safety procedures or training to help mitigate errors and risks.[12] Observers on flights which are being audited typically observe the following:[19]

  • Potential threats to safety
  • How the threats are addressed by the crew members
  • The errors the threats generate
  • How crew members manage these errors (action or inaction)
  • Specific behaviors known to be associated with aviation accidents and incidents

LOSA was developed to assist crew resource management practices in reducing human error in complex flight operations.[12] LOSA produces beneficial data that reveals how many errors or threats are encountered per flight, the number of errors which could have resulted in a serious threat to safety, and correctness of crew action or inaction. This data has proven to be useful in the development of CRM techniques and identification of what issues need to be addressed in training.[12]

Crew resource management (CRM)[edit]

CRM is the «effective use of all available resources by individuals and crews to safely and effectively accomplish a mission or task, as well as identifying and managing the conditions that lead to error.»[20] CRM training has been integrated and mandatory for most pilot training programs, and has been the accepted standard for developing human factors skills for air crews and airlines. Although there is no universal CRM program, airlines usually customize their training to best suit the needs of the organization. The principles of each program are usually closely aligned. According to the U.S. Navy, there are seven critical CRM skills:[20]

  • Decision making – the use of logic and judgement to make decisions based on available information
  • Assertiveness – willingness to participate and state a given position until convinced by facts that another option is more correct
  • Mission analysis – ability to develop short and long term contingency plans
  • Communication – clear and accurate sending and receiving of information, instructions, commands and useful feedback
  • Leadership – ability to direct and coordinate activities of pilots & crew members
  • Adaptability/flexibility – ability to alter course of action due to changing situations or availability of new information
  • Situational awareness – ability to perceive the environment within time and space, and comprehend its meaning

These seven skills comprise the critical foundation for effective aircrew coordination. With the development and use of these core skills, flight crews «highlight the importance of identifying human factors and team dynamics to reduce human errors that lead to aviation mishaps.»[20]

Application and effectiveness of CRM[edit]

Since the implementation of CRM circa 1979, following the need for increased research on resource management by NASA, the aviation industry has seen tremendous evolution of the application of CRM training procedures.[21] The applications of CRM has been developed in a series of generations:

  • First generation: emphasized individual psychology and testing, where corrections could be made to behavior.
  • Second generation: featured a shift in focus to cockpit group dynamics.
  • Third evolution: diversification of scope and an emphasis on training crews in how they must function both in and out of the cockpit.
  • Fourth generation: CRM integrated procedure into training, allowing organizations to tailor training to their needs.
  • Fifth generation (current): acknowledges that human error is inevitable and provides information to improve safety standards.[22]

Today, CRM is implemented through pilot and crew training sessions, simulations, and through interactions with senior ranked personnel and flight instructors such as briefing and debriefing flights. Although it is difficult to measure the success of CRM programs, studies have been conclusive that there is a correlation between CRM programs and better risk management.[22]

Cockpit task management (CTM)[edit]

Multiple sources of information can be taken from one interface here, known as the PFD, or primary flight display from which pilots receive all of the most important data readings

Cockpit task management (CTM) is the «management level activity pilots perform as they initiate, monitor, prioritize, and terminate cockpit tasks.»[23] A ‘task’ is defined as a process performed to achieve a goal (i.e. fly to a waypoint, descend to a desired altitude).[23] CTM training focuses on teaching crew members how to handle concurrent tasks which compete for their attention. This includes the following processes:

  • Task initiation – when appropriate conditions exist
  • Task monitoring – assessment of task progress and status
  • Task prioritization – relative to the importance and urgency for safety
  • Resource allocation – assignment of human and machine resources to tasks which need completion
  • Task interruption – suspension of lower priority tasks for resources to be allocated to higher priority tasks
  • Task resumption – continuing previously interrupted tasks
  • Task termination – the completion or incompletion of tasks

The need for CTM training is a result of the capacity of human attentional facilities and the limitations of working memory. Crew members may devote more mental or physical resources to a particular task which demands priority or requires the immediate safety of the aircraft.[23] CTM has been integrated to pilot training and goes hand in hand with CRM. Some aircraft operating systems have made progress in aiding CTM by combining instrument gauges into one screen. An example of this is a digital attitude indicator, which simultaneously shows the pilot the heading, airspeed, descent or ascent rate and a plethora of other pertinent information. Implementations such as these allow crews to gather multiple sources of information quickly and accurately, which frees up mental capacity to be focused on other, more prominent tasks.

A military pilot reads the pre-flight checklist prior the mission. Checklists ensure that pilots are able to follow operational procedure and aids in memory recall.

Checklists[edit]

The use of checklists before, during and after flights has established a strong presence in all types of aviation as a means of managing error and reducing the possibility of risk. Checklists are highly regulated and consist of protocols and procedures for the majority of the actions required during a flight.[24] The objectives of checklists include «memory recall, standardization and regulation of processes or methodologies.»[24] The use of checklists in aviation has become an industry standard practice, and the completion of checklists from memory is considered a violation of protocol and pilot error. Studies have shown that increased errors in judgement and cognitive function of the brain, along with changes in memory function are a few of the effects of stress and fatigue.[25] Both of these are inevitable human factors encountered in the commercial aviation industry. The use of checklists in emergency situations also contributes to troubleshooting and reverse examining the chain of events which may have led to the particular incident or crash. Apart from checklists issued by regulatory bodies such as the FAA or ICAO, or checklists made by aircraft manufacturers, pilots also have personal qualitative checklists aimed to ensure their fitness and ability to fly the aircraft. An example is the IM SAFE checklist (illness, medication, stress, alcohol, fatigue/food, emotion) and a number of other qualitative assessments which pilots may perform before or during a flight to ensure the safety of the aircraft and passengers.[24] These checklists, along with a number of other redundancies integrated into most modern aircraft operation systems, ensure the pilot remains vigilant, and in turn, aims to reduce the risk of pilot error.

Notable examples[edit]

One of the most famous examples of an aircraft disaster that was attributed to pilot error was the night-time crash of Eastern Air Lines Flight 401 near Miami, Florida on 29 December 1972. The captain, first officer, and flight engineer had become fixated on a faulty landing gear light and had failed to realize that one of the crew had accidentally bumped the flight controls, altering the autopilot settings from level flight to a slow descent. Told by ATC to hold over a sparsely populated area away from the airport while they dealt with the problem (with, as a result, very few lights visible on the ground to act as an external reference), the distracted flight crew did not notice the plane losing height and the aircraft eventually struck the ground in the Everglades, killing 101 of the 176 passengers and crew. The subsequent National Transportation Safety Board (NTSB) report on the incident blamed the flight crew for failing to monitor the aircraft’s instruments properly. Details of the incident are now frequently used as a case study in training exercises by aircrews and air traffic controllers.

During 2004 in the United States, pilot error was listed as the primary cause of 78.6% of fatal general aviation accidents, and as the primary cause of 75.5% of general aviation accidents overall.[26] For scheduled air transport, pilot error typically accounts for just over half of worldwide accidents with a known cause.[8]

  • 28 July 1945 – A United States Army Air Forces B-25 bomber bound for Newark Airport crashed into the 79th floor of the Empire State Building after the pilot became lost in a heavy fog bank over Manhattan. All three crewmen were killed as well as eleven office workers in the building.
  • 24 December 1958 – BOAC Bristol Britannia 312, registration G-AOVD, crashed as a result of a controlled flight into terrain (CFIT), near Winkton, England, while on a test flight. The crash was caused by a combination of bad weather and a failure on the part of both pilots to read the altimeter correctly. The first officer and two other people survived the crash.
  • 3 January 1961 – Aero Flight 311 crashed near Kvevlax, Finland. All twenty-five occupants were killed in the accident, which was the deadliest in Finnish history. An investigation later determined that both pilots were intoxicated during the flight, and may have been interrupted by a passenger at the time of the crash.
  • 28 February 1966 – American astronauts Elliot See and Charles Bassett were killed when their T-38 Talon crashed into a building at Lambert–St. Louis International Airport during bad weather. A NASA investigation concluded that See had been flying too low on his landing approach.
  • 5 May 1972 — Alitalia Flight 112 crashed into Mount Longa after the flight crew did not adhere to approach procedures established by ATC. All 115 occupants perished. This is the worst single-aircraft disaster in Italian history.
  • 29 December 1972 – Eastern Air Lines Flight 401 crashed into the Florida Everglades after the flight crew failed to notice the deactivation of the plane’s autopilot, having been distracted by their own attempts to solve a problem with the landing gear. Out of 176 occupants, 75 survived the crash.
  • 27 March 1977 – The Tenerife airport disaster: a senior KLM pilot failed to hear, understand or follow instructions from the control tower, causing two Boeing 747s to collide on the runway at Tenerife. A total of 583 people were killed in the deadliest aviation accident in history.
  • 28 December 1978 – United Airlines Flight 173: a flight simulator instructor captain allowed his Douglas DC-8 to run out of fuel while investigating a landing gear problem. United Airlines subsequently changed their policy to disallow «simulator instructor time» in calculating a pilot’s «total flight time». It was thought that a contributory factor to the accident is that an instructor can control the amount of fuel in simulator training so that it never runs out.
  • 13 January 1982 – Air Florida Flight 90, a Boeing 737-200 with 79 passengers and crew, crashed into the 14th Street Bridge and careened into the Potomac River shortly after taking off from Washington National Airport, killing 75 passengers and crew, and four motorists on the bridge. The NTSB report blamed the flight crew for not properly employing the plane’s de-icing system.
  • 19 February 1985 – The crew of China Airlines Flight 006 lost control of their Boeing 747SP over the Pacific Ocean, after the No. 4 engine flamed out. The aircraft descended 30,000 feet in two-and-a-half minutes before control was regained. There were no fatalities but there were several injuries, and the aircraft was badly damaged.
  • 16 August 1987 – The crew of Northwest Airlines Flight 255 omitted their taxi checklist and failed to deploy the aircraft’s flaps and slats. Subsequently, the McDonnell Douglas MD-82 did not gain enough lift on takeoff and crashed into the ground, killing all but one of the 155 people on board, as well as two people on the ground. The sole survivor was a four-year-old girl named Cecelia Cichan, who was seriously injured.
  • 28 August 1988 – The Ramstein airshow disaster: a member of an Italian aerobatic team misjudged a maneuver, causing a mid-air collision. Three pilots and 67 spectators on the ground were killed.
  • 31 August 1988 – Delta Air Lines Flight 1141 crashed on takeoff after the crew forgot to deploy the flaps for increased lift. Of the 108 passengers and crew on board, fourteen were killed.
  • 8 January 1989 – In the Kegworth air disaster, a fan blade broke off in the left engine of a new Boeing 737-400, but the pilots mistakenly shut down the right engine. The left engine eventually failed completely and the crew were unable to restart the right engine before the aircraft crashed. Instrumentation on the 737-400 was different from earlier models, but no flight simulator for the new model was available in Britain.
  • 3 September 1989 – The crew of Varig Flight 254 made a series of mistakes so that their Boeing 737 ran out of fuel hundreds of miles off-course above the Amazon jungle. Thirteen died in the ensuing crash landing.
  • 21 October 1989 – Tan-Sahsa Flight 414 crashed into a hill near Toncontin International Airport in Tegucigalpa, Honduras, because of a bad landing procedure by the pilot, killing 131 of the 146 passengers and crew.
  • 14 February 1990 – Indian Airlines Flight 605 crashed into a golf course short of the runway near Hindustan Airport, India. The flight crew failed to pull up after radio callouts of how close they were into the ground. The plane struck a golf course and an embankment, bursting into flames. Of the 146 occupants on the plane, 92 died, including both flight crew. 54 occupants survived the crash.
  • 24 November 1992 – China Southern Airlines Flight 3943 departed Guangzhou on a 55-minute flight to Guilin. During the descent towards Guilin, at an altitude of 7,000 feet (2,100 m), the captain attempted to level off the plane by raising the nose and the plane’s auto-throttle was engaged for descent. However, the crew failed to notice that the number 2 power lever was at idle, which led to an asymmetrical power condition. The plane crashed on descent to Guilin Airport, killing all 141 on board.
  • 23 March 1994 – Aeroflot Flight 593, an Airbus A310-300, crashed on its way to Hong Kong. The captain, Yaroslav Kudrinsky, invited his two children into the cockpit, and permitted them to sit at the controls, against airline regulations. His sixteen-year-old son, Eldar Kudrinsky, accidentally disconnected the autopilot, causing the plane to bank to the right before diving. The co-pilot brought up the plane too far, causing it to stall and start a flat spin. The pilots eventually recovered the plane, but it crashed into a forest, killing all 75 people on board.
  • 24 June 1994 – B-52 crashes in Fairchild Air Force Base. The crash was largely attributed to the personality and behavior of Lt Col Arthur «Bud» Holland, the pilot in command, and delayed reactions to the earlier incidents involving this pilot. After past histories, Lt Col Mark McGeehan, a USAF squadron commander, refused to allow any of his squadron members to fly with Holland unless he (McGeehan) was also on the aircraft. This crash is now used in military and civilian aviation environments as a case study in teaching crew resource management.
  • 30 June 1994 – Airbus Industrie Flight 129, a certification test flight of the Airbus A330-300, crashed at Toulouse-Blagnac Airport. While simulating an engine-out emergency just after takeoff with an extreme center of gravity location, the pilots chose improper manual settings which rendered the autopilot incapable of keeping the plane in the air, and by the time the captain regained manual control, it was too late. The aircraft was destroyed, killing the flight crew, a test engineer, and four passengers. The investigative board concluded that the captain was overworked from earlier flight testing that day, and was unable to devote sufficient time to the preflight briefing. As a result, Airbus had to revise the engine-out emergency procedures.
  • 2 July 1994 – USAir Flight 1016 crashed into a residential house due to spatial disorientation. 37 passengers were killed and the airplane was destroyed.
  • 20 December 1995 – American Airlines Flight 965, a Boeing 757-200 with 155 passengers and eight crew members, departed Miami approximately two hours behind schedule at 1835 Eastern Standard Time (EST). The investigators believe that the pilot’s unfamiliarity with the modern technology installed in the Boeing 757-200 may have played a role. The pilots did not know their location in relation to a radio beacon in Tulua. The aircraft was equipped to provide that information electronically, but according to sources familiar with the investigation, the pilot apparently did not know how to access the information. The captain input the wrong coordinates, and the aircraft crashed into the mountains, killing 159 of the 163 people on board.
  • 8 May 1997 – China Southern Airlines Flight 3456 crashed into the runway at Shenzhen Huangtian Airport during the crew’s second go-around attempt, killing 35 of the 74 people on board. The crew had unknowingly violated landing procedures, due to heavy weather.
  • 6 August 1997 – Korean Air Flight 801, a Boeing 747-300, crashed into Nimitz Hill, three miles from Guam International Airport, killing 228 of the 254 people on board. The captain’s failure to properly conduct a non-precision approach contributed to the accident. The NTSB said pilot fatigue was a possible factor.
  • 26 September 1997 — Garuda Indonesia Flight 152, an Airbus A300, crashed into a ravine, killing all 234 people on board. The NTSC concluded that the crash was caused when the pilots turned the aircraft in the wrong direction, along with ATC error. Low visibility and failure of the GPWS to activate were cited as contributing factors to the accident.
  • 12 October 1997 – Singer John Denver died when his newly-acquired Rutan Long-EZ home-built aircraft crashed into the Pacific Ocean off Pacific Grove, California. The NTSB indicated that Denver lost control of the aircraft while attempting to manipulate the fuel selector handle, which had been placed in an inaccessible position by the aircraft’s builder. The NTSB cited Denver’s unfamiliarity with the aircraft’s design as a cause of the crash.
  • 16 February 1998 – China Airlines Flight 676 was attempting to land at Chiang Kai-Shek International Airport but had initiate a go-around due to the bad weather conditions. However, the pilots accidentally disengaged the autopilot and did not notice for 11 seconds. When they did notice, the Airbus A300 had entered a stall. The aircraft crashed into a highway and residential area, and exploded, killing all 196 people on board, as well as seven people on the ground.
  • 16 July 1999 – John F. Kennedy, Jr. died when his plane, a Piper Saratoga, crashed into the Atlantic Ocean off the coast of Martha’s Vineyard, Massachusetts. The NTSB officially declared that the crash was caused by «the pilot’s failure to maintain control of his airplane during a descent over water at night, which was a result of spatial disorientation». Kennedy did not hold a certification for IFR flight, but did continue to fly after weather conditions obscured visual landmarks.
  • 31 August 1999 – Lineas Aéreas Privadas Argentinas (LAPA) flight 3142 crashed after an attempted take-off with the flaps retracted, killing 63 of the 100 occupants on the plane as well as two people on the ground.
  • 31 October 2000 – Singapore Airlines Flight 006 was a Boeing 747-412 that took off from the wrong runway at the then Chiang Kai-Shek International Airport. It collided with construction equipment on the runway, bursting into flames and killing 83 of its 179 occupants.
  • 12 November 2001 – American Airlines Flight 587 encountered heavy turbulence and the co-pilot over-applied the rudder pedal, turning the Airbus A300 from side to side. The excessive stress caused the rudder to fail. The A300 spun and hit a residential area, crushing five houses and killing 265 people. Contributing factors included wake turbulence and pilot training.
  • 24 November 2001 – Crossair Flight 3597 crashed into a forest on approach to runway 28 at Zurich Airport. This was caused by Captain Lutz descending below the minimum safe altitude of 2400 feet on approach to the runway.
  • 15 April 2002 – Air China Flight 129, a Boeing 767-200, crashed near Busan, South Korea killing 128 of the 166 people on board. The pilot and co-pilot had been flying too low.
  • 25 October 2002 – Eight people, including U.S. Senator Paul Wellstone, were killed in a crash near Eveleth, Minnesota. The NTSB concluded that «the flight crew did not monitor and maintain minimum speed.
  • 3 January 2004 – Flash Airlines Flight 604 dived into the Red Sea shortly after takeoff, killing all 148 people on board. The captain had been experiencing vertigo and had not noticed that his control column was slanted to the right. The Boeing 737 banked until it was no longer able to stay in the air. However, the investigation report was disputed.
  • 26 February 2004 – A Beech 200 carrying Macedonian President Boris Trajkovski crashed, killing the president and eight other passengers. The crash investigation ruled that the accident was caused by «procedural mistakes by the crew» during the landing approach.
  • 14 August 2005 – The pilots of Helios Airways Flight 522 lost consciousness, most likely due to hypoxia caused by failure to switch the cabin pressurization to «Auto» during the pre-flight preparations. The Boeing 737-300 crashed after running out of fuel, killing all on board.
  • 16 August 2005 – The crew of West Caribbean Airways Flight 708 unknowingly (and dangerously) decreased the speed of the McDonnell Douglas MD-82, causing it to enter a stall. The situation was incorrectly handled by the crew, with the captain believing that the engines had flamed out, while the first officer, who was aware of the stall, attempted to correct him. The aircraft crashed into the ground near Machiques, Venezuela, killing all 160 people on board.
  • 3 May 2006 – Armavia Flight 967 lost control and crashed into the Black Sea while approaching Sochi-Adler Airport in Russia, killing all 113 people on board. The pilots were fatigued and flying under stressful conditions. Their stress levels were pushed over the limit, causing them to lose their situational awareness.
  • 27 August 2006 – Comair Flight 5191 failed to become airborne and crashed at Blue Grass Airport, after the flight crew mistakenly attempted to take off from a secondary runway that was much shorter than the intended takeoff runway. All but one of the 50 people on board the plane died, including the 47 passengers. The sole survivor was the flight’s first officer, James Polhinke.
  • 1 January 2007 – The crew of Adam Air Flight 574 were preoccupied with a malfunction of the inertial reference system, which diverted their attention from the flight instruments, allowing the increasing descent and bank angle to go unnoticed. Appearing to have become spatially disoriented, the pilots did not detect and appropriately arrest the descent soon enough to prevent loss of control. This caused the aircraft to break up in mid air and crash into the water, killing all 102 people on board.[27]
  • 7 March 2007 – Garuda Indonesia Flight 200: poor Crew Resource Management and the failure to extend the flaps led the aircraft to land at an «unimaginable» speed and run off the end of the runway after landing. Of the 140 occupants, 22 were killed.
  • 17 July 2007 – TAM Airlines Flight 3054: the thrust reverser on the right engine of the Airbus A320 was jammed. Although both crew members were aware, the captain used an outdated braking procedure, and the aircraft overshot the runway and crashed into a building, killing all 187 people on board, as well as 12 people on the ground.
  • 20 August 2008 – The crew of Spanair Flight 5022 failed to deploy the MD-82’s flaps and slats. The flight crashed after takeoff, killing 154 out of the 172 passengers and crew on board.
  • 12 February 2009 – Colgan Air Flight 3407 (flying as Continental Connection) entered a stall and crashed into a house in Clarence Center, New York, due to lack of situational awareness of air speed by the captain and first officer and the captain’s improper reaction to the plane’s stick-shaker stall warning system. All 49 people on board the plane died, as well as one person inside the house.
  • 1 June 2009 – Air France Flight 447 entered a stall and crashed into the Atlantic Ocean following pitot tube failures and improper control inputs by the first officer. All 216 passengers and twelve crew members died.
  • 10 April 2010 – 2010 Polish Air Force Tu-154 crash: during a descent towards Russia’s Smolensk North Airport, the flight crew of the Polish presidential jet ignored automatic warnings and attempted a risky landing in heavy fog. The Tupolev Tu-154M descended too low and crashed into a nearby forest; all of the occupants were killed, including Polish president Lech Kaczynski, his wife Maria Kaczynska, and numerous government and military officials.
  • 12 May 2010 – Afriqiyah Airways Flight 771 The aircraft crashed about 1,200 meters (1,300 yd; 3,900 ft) short of Runway 09, outside the perimeter of Tripoli International Airport, killing all but one of the 104 people on board. The sole survivor was a 9-year-old boy named Ruben Van Assouw. On 28 February 2013, the Libyan Civil Aviation Authority announced that the crash was caused by pilot error. Factors that contributed to the crash were lacking/insufficient crew resource management, sensory illusions, and the first officer’s inputs to the aircraft side stick; fatigue could also have played a role in the accident. The final report cited the following causes: the pilots’ lack of a common action plan during the approach, the final approach being continued below the Minimum Decision Altitude without ground visual reference being acquired; the inappropriate application of flight control inputs during the go-around and after the Terrain Awareness and Warning System had been activated; and the flight crew’s failure to monitor and control the flight path.
  • 22 May 2010 – Air India Express Flight 812 overshot the runway at Mangalore Airport, killing 158 people. The plane touched down 610 meters (670 yd) from the usual touchdown point after a steep descent. CVR recordings showed that the captain had been sleeping and had woken up just minutes before the landing. His lack of alertness made the plane land very quickly and steeply and it ran off the end of the tabletop runway.
  • 28 July 2010 – The captain of Airblue Flight 202 became confused with the heading knob and thought that he had carried out the correct action to turn the plane. However, due to his failure to pull the heading knob, the turn was not executed. The Airbus A321 went astray and slammed into the Margalla Hills, killing all 152 people on board.
  • 20 June 2011 – RusAir Flight 9605 crashed onto a motorway while on its final approach to Petrozavodsk Airport in western Russia, after the intoxicated navigator encouraged the captain to land in heavy fog. Only five of the 52 people on board the plane survived the crash.
  • 6 July 2013 – Asiana Airlines Flight 214 tail struck the seawall short of runway 28L at San Francisco International Airport. Of the 307 passengers and crew, three people died and 187 were injured when the aircraft slid down the runway. Investigators said the accident was caused by lower than normal approach speed and incorrect approach path during landing.
  • 23 July 2014 – TransAsia Airways Flight 222 brushed trees and crashed into six houses in a residential area in Xixi Village, Penghu Island, Taiwan. Of the 58 people on board the flight, only ten people survived the crash. The captain was overconfident with his skill and intentionally descended and rolled the plane to the left. Crew members did not realize that they were at a dangerously low altitude and the plane was about to impact terrain until two seconds before the crash.
  • 28 December 2014 — Indonesia AirAsia Flight 8501 crashed into the Java Sea as a result of an aerodynamic stall due to pilot error. The aircraft exceeded the climb rate, way beyond its operational limits. All 155 passengers and 7 crew members on board were killed.
  • 6 February 2015 – TransAsia Airways Flight 235: one of the ATR 72’s engines experienced a flameout. As airplanes are able to fly on one engine alone, the pilot then shut down one of the engines. However, he accidentally shut off the engine that was functioning correctly and left the plane powerless, at which point he unsuccessfully tried to restart both engines. The plane then clipped a bridge and plummeted into the Keelung river as the pilot tried to avoid city terrain, killing 43 of the 58 on board.

See also[edit]

  • Airmanship
  • Controlled flight into terrain
  • Environmental causes of aviation stress
  • Human factors in aviation safety
  • Human reliability
  • Jet lag
  • Korean Air Lines Flight 007
  • Pilot fatigue
  • Sensory illusions in aviation
  • Spatial disorientation
  • Stress in the aviation industry
  • Threat and error management
  • User error
  • Kenya Airways Flight 507

References[edit]

  1. ^ «TENERIFE DISASTER – 27 MARCH 1977: The Utility of the Swiss Cheese Model & other Accident Causation Frameworks». Go Flight Medicine. Retrieved 13 October 2014.
  2. ^ Pilot’s Handbook of Aeronautical Knowledge (2016). U.S. Department of Transportation. Federal Aviation Administration, Flight Standards Service pdf.
  3. ^ Error Management (OGHFA BN). Operator’s Guide to Human Factors in Aviation. Skybrary
  4. ^ How exactly should I understand the term «accidental hull loss»?. Aviation stack overflow
  5. ^ a b «Risk management handbook» (PDF) (Change 1 ed.). Federal Aviation Administration. January 2016. Chapter 2. Human behavior. Retrieved 16 November 2018.
  6. ^ a b Rural and Regional Affairs and Transport References Committee (May 2013). «Aviation Accident Investigations» (PDF). Government of Australia.
  7. ^ Investigating Human Error: Incidents, Accidents, and Complex Systems. Ashgate Publishing. 2004. ISBN 0754641228.
  8. ^ a b «Accident statistics». www.planecrashinfo.com. Retrieved 21 October 2015.
  9. ^ Foyle, D. C., & Hooey, B. L. (Eds.). (2007). Human performance modeling in aviation. CRC Press.
  10. ^ a b Helmreich, Robert L. (18 March 2000). «On Error Management: Lessons From Aviation». BMJ: British Medical Journal. 320–7237 (7237): 781–785. doi:10.1136/bmj.320.7237.781. PMC 1117774. PMID 10720367.
  11. ^ a b Thomas, Matthew J.W. (2004). «Predictors of Threat and Error Management: Identification of Core Nontechnical Skills and Implications for Training Systems Design». The International Journal of Aviation Psychology. 14 (2): 207–231. doi:10.1207/s15327108ijap1402_6. S2CID 15271960.
  12. ^ a b c d e f Earl, Laurie; Bates, Paul R.; Murray, Patrick S.; Glendon, A. Ian; Creed, Peter A. (January 2012). «Developing a Single-Pilot Line Operations Safety Audit». Aviation Psychology and Applied Human Factors. 2 (2): 49–61. doi:10.1027/2192-0923/a000027. hdl:10072/49214. ISSN 2192-0923.
  13. ^ Li, Guohua; Baker, Susan P.; Grabowski, Jurek G.; Rebok, George W. (February 2001). «Factors Associated With Pilot Error in Aviation Crashes». Aviation, Space, and Environmental Medicine. 72 (1): 52–58. PMID 11194994.
  14. ^ Stanhope, N.; Crowley-Murphy, M. (1999). «An evaluation of adverse incident reporting». Journal of Evaluation in Clinical Practice. 5 (1): 5–12. doi:10.1046/j.1365-2753.1999.00146.x. PMID 10468379.
  15. ^ a b Wiegmann, D. A., & Shappell, S. A. (2001). Human error perspectives in aviation. The International Journal of Aviation Psychology, 11(4), 341–357.
  16. ^ Stacey, Daniel (15 January 2015). «Indonesian Air-Traffic Control Is Unsophisticated, Pilots Say». The Wall Street Journal. Retrieved 26 January 2015
  17. ^ a b Dekker, Sidney; Lundström, Johan (May 2007). «From Threat and Error Management (TEM) to Resilience». Journal of Human Factors and Aerospace Safety. 260 (70): 1–10.
  18. ^ Maurino, Dan (April 2005). «Threat and Error Management (TEM)». Canadian Aviation Safety Seminar (CASS); Flight Safety and Human Factors Programme – ICAO.
  19. ^ a b «Line Operations Safety Audit (LOSA)». SKYbrary. Retrieved 24 August 2016.
  20. ^ a b c Myers, Charles; Orndorff, Denise (2013). «Crew Resource Management: Not Just for Aviators Anymore». Journal of Applied Learning Technology. 3 (3): 44–48.
  21. ^ Helmreich, Robert L.; Merritt, Ashleigh C.; Wilhelm, John A. (1999). «The Evolution of Crew Resource Management Training in Commercial Aviation». The International Journal of Aviation Psychology. 9 (1): 19–32. doi:10.1207/s15327108ijap0901_2. PMID 11541445.
  22. ^ a b Salas, Eduardo; Burke, Shawn C.; Bowers, Clint A.; Wilson, Katherine A. (2001). «Team Training in the Skies: Does Crew Resource Management (CRM) Training Work?». Human Factors. 43 (4): 641–674. doi:10.1518/001872001775870386. ISSN 0018-7208. PMID 12002012. S2CID 23109802.
  23. ^ a b c Chou, Chung-Di; Madhavan, Das; Funk, Ken (1996). «Studies of Cockpit Task Management Errors». The International Journal of Aviation Psychology. 6 (4): 307–320. doi:10.1207/s15327108ijap0604_1.
  24. ^ a b c Hales, Brigette M.; Pronovost, Peter J. (2006). «The Checklist — A Tool for Error Management and Performance». Journal of Critical Care. 21 (3): 231–235. doi:10.1016/j.jcrc.2006.06.002. PMID 16990087.
  25. ^ Cavanagh, James F.; Frank, Michael J.; Allen, John J.B. (April 2010). «Social Stress Reactivity Alters Reward and Punishment Learning». Social Cognitive and Affective Neuroscience. 6 (3): 311–320. doi:10.1093/scan/nsq041. PMC 3110431. PMID 20453038.
  26. ^ «2005 Joseph T. Nall Report» (PDF). Archived from the original (PDF) on 2 February 2007. Retrieved 12 February 2007.
  27. ^ «Aircraft Accident Investigation Report KNKT/07.01/08.01.36» (PDF). National Transportation Safety Committee, Indonesian Ministry of Transportation. 1 January 2007. Archived from the original (PDF) on 16 July 2011. Retrieved 8 June 2013. Aircraft Accident Investigation Report of Indonesian’s National Transportation Safety Committee

From Wikipedia, the free encyclopedia

1994 Fairchild Air Force Base B-52 crash, caused by flying the aircraft beyond its operational limits. Here the aircraft is seen in an unrecoverable bank, a split second before the crash. This accident is now used in military and civilian aviation environments as a case study in teaching crew resource management.

Actual flight path (red) of TWA Flight 3 from departure to crash point (controlled flight into terrain). Blue line shows the nominal Las Vegas course, while green is a typical course from Boulder. The pilot inadvertently used the Boulder outbound course instead of the appropriate Las Vegas course.

Departure/destination airports and crash site location of Varig Flight 254 (major navigational error leading to fuel exhaustion). The flight plan was later shown to 21 pilots of major airlines. No fewer than 15 pilots committed the same mistake.

Map of the Linate Airport disaster caused by taking the wrong taxiing route (red instead of green), as control tower had not given clear instructions. The accident occurred in thick fog.

The Tenerife airport disaster now serves as a textbook example.[1] Due to several misunderstandings, the KLM flight tried to take off while the Pan Am flight was still on the runway. The airport was accommodating an unusually large number of commercial airliners, resulting in disruption of the normal use of taxiways.

The «three-pointer» design altimeter is one of the most prone to being misread by pilots (a cause of the UA 389 and G-AOVD crashes).

Pilot error generally refers to an accident in which an action or decision made by the pilot was the cause or a contributing factor that led to the accident, but also includes the pilot’s failure to make a correct decision or take proper action.[2] Errors are intentional actions that fail to achieve their intended outcomes.[3] Chicago Convention defines accident as «An occurrence associated with the operation of an aircraft […] in which […] a person is fatally or seriously injured […] except when the injuries are […] inflicted by other persons.»[4] Hence the definition of the «pilot error» does not include deliberate crash (and such crash is not an accident).

The causes of pilot error include psychological and physiological human limitations. Various forms of threat and error management have been implemented into pilot training programs to teach crew members how to deal with impending situations that arise throughout the course of a flight.[5]

Accounting for the way human factors influence the actions of pilots is now considered standard practice by accident investigators when examining the chain of events that led to an accident.[5][6]

Description[edit]

Modern accident investigators avoid the words «pilot error», as the scope of their work is to determine the cause of an accident, rather than to apportion blame. Furthermore, any attempt to incriminate the pilots does not consider that they are part of a broader system, which in turn may be accountable for their fatigue, work pressure, or lack of training.[6] The International Civil Aviation Organization (ICAO), and its member states, therefore adopted James Reason’s model of causation in 1993 in an effort to better understand the role of human factors in aviation accidents.[7]

Pilot error is nevertheless a major cause of air accidents. In 2004, it was identified as the primary reason for 78.6% of disastrous general aviation (GA) accidents, and as the major cause of 75.5% of GA accidents in the United States.[8][better source needed] There are multiple factors that can cause pilot error; mistakes in the decision-making process can be due to habitual tendencies, biases, as well as a breakdown in the processing of the information coming in. For aircraft pilots, in extreme circumstances these errors are highly likely to result in fatalities.[9]

Causes of pilot error[edit]

Pilots work in complex environments and are routinely exposed to high amounts of situational stress in the workplace, inducing pilot error which may result in a threat to flight safety. While aircraft accidents are infrequent, they are highly visible and often involve significant numbers of fatalities. For this reason, research on causal factors and methodologies of mitigating risk associated with pilot error is exhaustive. Pilot error results from physiological and psychological limitations inherent in humans. «Causes of error include fatigue, workload, and fear as well as cognitive overload, poor interpersonal communications, imperfect information processing, and flawed decision making.»[10] Throughout the course of every flight, crews are intrinsically subjected to a variety of external threats and commit a range of errors that have the potential to negatively impact the safety of the aircraft.[11]

Threats[edit]

The term «threat» is defined as any event «external to flight crew’s influence which can increase the operational complexity of a flight.»[12] Threats may further be broken down into environmental threats and airline threats. Environmental threats are ultimately out of the hands of crew members and the airline, as they hold no influence on «adverse weather conditions, air traffic control shortcomings, bird strikes, and high terrain.»[12] Conversely, airline threats are not manageable by the flight crew, but may be controlled by the airline’s management. These threats include «aircraft malfunctions, cabin interruptions, operational pressure, ground/ramp errors/events, cabin events and interruptions, ground maintenance errors, and inadequacies of manuals and charts.»[12]

Errors[edit]

The term «error» is defined as any action or inaction leading to deviation from team or organizational intentions.[10] Error stems from physiological and psychological human limitations such as illness, medication, stress, alcohol/drug abuse, fatigue, emotion, etc. Error is inevitable in humans and is primarily related to operational and behavioral mishaps.[13] Errors can vary from incorrect altimeter setting and deviations from flight course, to more severe errors such as exceeding maximum structural speeds or forgetting to put down landing or takeoff flaps.

Decision making[edit]

Reasons for negative reporting of accidents include staff being too busy, confusing data entry forms, lack of training and less education, lack of feedback to staff on reported data and punitive organizational cultures.[14] Wiegmann and Shappell invented three cognitive models to analyze approximately 4,000 pilot factors associated with more than 2,000 U.S. Navy aviation mishaps. Although the three cognitive models have slight differences in the types of errors, all three lead to the same conclusion: errors in judgment.[15] The three steps are decision-making, goal-setting, and strategy-selection errors, all of which were highly related to primary accidents.[15] For example, on 28 December 2014, AirAsia Flight 8501, which was carrying seven crew members and 155 passengers, crashed into the Java Sea due to several fatal mistakes made by the captain in the poor weather conditions. In this case, the captain chose to exceed the maximum climb rate for a commercial aircraft, which caused a critical stall from which he was unable to recover.[16]

Threat and error management (TEM)[edit]

TEM involves the effective detection and response to internal or external factors that have the potential to degrade the safety of an aircraft’s operations.[11] Methods of teaching TEM stress replicability, or reliability of performance across recurring situations.[17] TEM aims to prepare crews with the «coordinative and cognitive ability to handle both routine and unforeseen surprises and anomalies.»[17] The desired outcome of TEM training is the development of ‘resiliency’. Resiliency, in this context, is the ability to recognize and act adaptively to disruptions which may be encountered during flight operations. TEM training occurs in various forms, with varying levels of success. Some of these training methods include data collection using the line operations safety audit (LOSA), implementation of crew resource management (CRM), cockpit task management (CTM), and the integrated use of checklists in both commercial and general aviation. Some other resources built into most modern aircraft that help minimize risk and manage threat and error are airborne collision and avoidance systems (ACAS) and ground proximity warning systems (GPWS).[18] With the consolidation of onboard computer systems and the implementation of proper pilot training, airlines and crew members look to mitigate the inherent risks associated with human factors.

Line operations safety audit (LOSA)[edit]

LOSA is a structured observational program designed to collect data for the development and improvement of countermeasures to operational errors.[19] Through the audit process, trained observers are able to collect information regarding the normal procedures, protocol, and decision making processes flight crews undertake when faced with threats and errors during normal operation. This data driven analysis of threat and error management is useful for examining pilot behavior in relation to situational analysis. It provides a basis for further implementation of safety procedures or training to help mitigate errors and risks.[12] Observers on flights which are being audited typically observe the following:[19]

  • Potential threats to safety
  • How the threats are addressed by the crew members
  • The errors the threats generate
  • How crew members manage these errors (action or inaction)
  • Specific behaviors known to be associated with aviation accidents and incidents

LOSA was developed to assist crew resource management practices in reducing human error in complex flight operations.[12] LOSA produces beneficial data that reveals how many errors or threats are encountered per flight, the number of errors which could have resulted in a serious threat to safety, and correctness of crew action or inaction. This data has proven to be useful in the development of CRM techniques and identification of what issues need to be addressed in training.[12]

Crew resource management (CRM)[edit]

CRM is the «effective use of all available resources by individuals and crews to safely and effectively accomplish a mission or task, as well as identifying and managing the conditions that lead to error.»[20] CRM training has been integrated and mandatory for most pilot training programs, and has been the accepted standard for developing human factors skills for air crews and airlines. Although there is no universal CRM program, airlines usually customize their training to best suit the needs of the organization. The principles of each program are usually closely aligned. According to the U.S. Navy, there are seven critical CRM skills:[20]

  • Decision making – the use of logic and judgement to make decisions based on available information
  • Assertiveness – willingness to participate and state a given position until convinced by facts that another option is more correct
  • Mission analysis – ability to develop short and long term contingency plans
  • Communication – clear and accurate sending and receiving of information, instructions, commands and useful feedback
  • Leadership – ability to direct and coordinate activities of pilots & crew members
  • Adaptability/flexibility – ability to alter course of action due to changing situations or availability of new information
  • Situational awareness – ability to perceive the environment within time and space, and comprehend its meaning

These seven skills comprise the critical foundation for effective aircrew coordination. With the development and use of these core skills, flight crews «highlight the importance of identifying human factors and team dynamics to reduce human errors that lead to aviation mishaps.»[20]

Application and effectiveness of CRM[edit]

Since the implementation of CRM circa 1979, following the need for increased research on resource management by NASA, the aviation industry has seen tremendous evolution of the application of CRM training procedures.[21] The applications of CRM has been developed in a series of generations:

  • First generation: emphasized individual psychology and testing, where corrections could be made to behavior.
  • Second generation: featured a shift in focus to cockpit group dynamics.
  • Third evolution: diversification of scope and an emphasis on training crews in how they must function both in and out of the cockpit.
  • Fourth generation: CRM integrated procedure into training, allowing organizations to tailor training to their needs.
  • Fifth generation (current): acknowledges that human error is inevitable and provides information to improve safety standards.[22]

Today, CRM is implemented through pilot and crew training sessions, simulations, and through interactions with senior ranked personnel and flight instructors such as briefing and debriefing flights. Although it is difficult to measure the success of CRM programs, studies have been conclusive that there is a correlation between CRM programs and better risk management.[22]

Cockpit task management (CTM)[edit]

Multiple sources of information can be taken from one interface here, known as the PFD, or primary flight display from which pilots receive all of the most important data readings

Cockpit task management (CTM) is the «management level activity pilots perform as they initiate, monitor, prioritize, and terminate cockpit tasks.»[23] A ‘task’ is defined as a process performed to achieve a goal (i.e. fly to a waypoint, descend to a desired altitude).[23] CTM training focuses on teaching crew members how to handle concurrent tasks which compete for their attention. This includes the following processes:

  • Task initiation – when appropriate conditions exist
  • Task monitoring – assessment of task progress and status
  • Task prioritization – relative to the importance and urgency for safety
  • Resource allocation – assignment of human and machine resources to tasks which need completion
  • Task interruption – suspension of lower priority tasks for resources to be allocated to higher priority tasks
  • Task resumption – continuing previously interrupted tasks
  • Task termination – the completion or incompletion of tasks

The need for CTM training is a result of the capacity of human attentional facilities and the limitations of working memory. Crew members may devote more mental or physical resources to a particular task which demands priority or requires the immediate safety of the aircraft.[23] CTM has been integrated to pilot training and goes hand in hand with CRM. Some aircraft operating systems have made progress in aiding CTM by combining instrument gauges into one screen. An example of this is a digital attitude indicator, which simultaneously shows the pilot the heading, airspeed, descent or ascent rate and a plethora of other pertinent information. Implementations such as these allow crews to gather multiple sources of information quickly and accurately, which frees up mental capacity to be focused on other, more prominent tasks.

A military pilot reads the pre-flight checklist prior the mission. Checklists ensure that pilots are able to follow operational procedure and aids in memory recall.

Checklists[edit]

The use of checklists before, during and after flights has established a strong presence in all types of aviation as a means of managing error and reducing the possibility of risk. Checklists are highly regulated and consist of protocols and procedures for the majority of the actions required during a flight.[24] The objectives of checklists include «memory recall, standardization and regulation of processes or methodologies.»[24] The use of checklists in aviation has become an industry standard practice, and the completion of checklists from memory is considered a violation of protocol and pilot error. Studies have shown that increased errors in judgement and cognitive function of the brain, along with changes in memory function are a few of the effects of stress and fatigue.[25] Both of these are inevitable human factors encountered in the commercial aviation industry. The use of checklists in emergency situations also contributes to troubleshooting and reverse examining the chain of events which may have led to the particular incident or crash. Apart from checklists issued by regulatory bodies such as the FAA or ICAO, or checklists made by aircraft manufacturers, pilots also have personal qualitative checklists aimed to ensure their fitness and ability to fly the aircraft. An example is the IM SAFE checklist (illness, medication, stress, alcohol, fatigue/food, emotion) and a number of other qualitative assessments which pilots may perform before or during a flight to ensure the safety of the aircraft and passengers.[24] These checklists, along with a number of other redundancies integrated into most modern aircraft operation systems, ensure the pilot remains vigilant, and in turn, aims to reduce the risk of pilot error.

Notable examples[edit]

One of the most famous examples of an aircraft disaster that was attributed to pilot error was the night-time crash of Eastern Air Lines Flight 401 near Miami, Florida on 29 December 1972. The captain, first officer, and flight engineer had become fixated on a faulty landing gear light and had failed to realize that one of the crew had accidentally bumped the flight controls, altering the autopilot settings from level flight to a slow descent. Told by ATC to hold over a sparsely populated area away from the airport while they dealt with the problem (with, as a result, very few lights visible on the ground to act as an external reference), the distracted flight crew did not notice the plane losing height and the aircraft eventually struck the ground in the Everglades, killing 101 of the 176 passengers and crew. The subsequent National Transportation Safety Board (NTSB) report on the incident blamed the flight crew for failing to monitor the aircraft’s instruments properly. Details of the incident are now frequently used as a case study in training exercises by aircrews and air traffic controllers.

During 2004 in the United States, pilot error was listed as the primary cause of 78.6% of fatal general aviation accidents, and as the primary cause of 75.5% of general aviation accidents overall.[26] For scheduled air transport, pilot error typically accounts for just over half of worldwide accidents with a known cause.[8]

  • 28 July 1945 – A United States Army Air Forces B-25 bomber bound for Newark Airport crashed into the 79th floor of the Empire State Building after the pilot became lost in a heavy fog bank over Manhattan. All three crewmen were killed as well as eleven office workers in the building.
  • 24 December 1958 – BOAC Bristol Britannia 312, registration G-AOVD, crashed as a result of a controlled flight into terrain (CFIT), near Winkton, England, while on a test flight. The crash was caused by a combination of bad weather and a failure on the part of both pilots to read the altimeter correctly. The first officer and two other people survived the crash.
  • 3 January 1961 – Aero Flight 311 crashed near Kvevlax, Finland. All twenty-five occupants were killed in the accident, which was the deadliest in Finnish history. An investigation later determined that both pilots were intoxicated during the flight, and may have been interrupted by a passenger at the time of the crash.
  • 28 February 1966 – American astronauts Elliot See and Charles Bassett were killed when their T-38 Talon crashed into a building at Lambert–St. Louis International Airport during bad weather. A NASA investigation concluded that See had been flying too low on his landing approach.
  • 5 May 1972 — Alitalia Flight 112 crashed into Mount Longa after the flight crew did not adhere to approach procedures established by ATC. All 115 occupants perished. This is the worst single-aircraft disaster in Italian history.
  • 29 December 1972 – Eastern Air Lines Flight 401 crashed into the Florida Everglades after the flight crew failed to notice the deactivation of the plane’s autopilot, having been distracted by their own attempts to solve a problem with the landing gear. Out of 176 occupants, 75 survived the crash.
  • 27 March 1977 – The Tenerife airport disaster: a senior KLM pilot failed to hear, understand or follow instructions from the control tower, causing two Boeing 747s to collide on the runway at Tenerife. A total of 583 people were killed in the deadliest aviation accident in history.
  • 28 December 1978 – United Airlines Flight 173: a flight simulator instructor captain allowed his Douglas DC-8 to run out of fuel while investigating a landing gear problem. United Airlines subsequently changed their policy to disallow «simulator instructor time» in calculating a pilot’s «total flight time». It was thought that a contributory factor to the accident is that an instructor can control the amount of fuel in simulator training so that it never runs out.
  • 13 January 1982 – Air Florida Flight 90, a Boeing 737-200 with 79 passengers and crew, crashed into the 14th Street Bridge and careened into the Potomac River shortly after taking off from Washington National Airport, killing 75 passengers and crew, and four motorists on the bridge. The NTSB report blamed the flight crew for not properly employing the plane’s de-icing system.
  • 19 February 1985 – The crew of China Airlines Flight 006 lost control of their Boeing 747SP over the Pacific Ocean, after the No. 4 engine flamed out. The aircraft descended 30,000 feet in two-and-a-half minutes before control was regained. There were no fatalities but there were several injuries, and the aircraft was badly damaged.
  • 16 August 1987 – The crew of Northwest Airlines Flight 255 omitted their taxi checklist and failed to deploy the aircraft’s flaps and slats. Subsequently, the McDonnell Douglas MD-82 did not gain enough lift on takeoff and crashed into the ground, killing all but one of the 155 people on board, as well as two people on the ground. The sole survivor was a four-year-old girl named Cecelia Cichan, who was seriously injured.
  • 28 August 1988 – The Ramstein airshow disaster: a member of an Italian aerobatic team misjudged a maneuver, causing a mid-air collision. Three pilots and 67 spectators on the ground were killed.
  • 31 August 1988 – Delta Air Lines Flight 1141 crashed on takeoff after the crew forgot to deploy the flaps for increased lift. Of the 108 passengers and crew on board, fourteen were killed.
  • 8 January 1989 – In the Kegworth air disaster, a fan blade broke off in the left engine of a new Boeing 737-400, but the pilots mistakenly shut down the right engine. The left engine eventually failed completely and the crew were unable to restart the right engine before the aircraft crashed. Instrumentation on the 737-400 was different from earlier models, but no flight simulator for the new model was available in Britain.
  • 3 September 1989 – The crew of Varig Flight 254 made a series of mistakes so that their Boeing 737 ran out of fuel hundreds of miles off-course above the Amazon jungle. Thirteen died in the ensuing crash landing.
  • 21 October 1989 – Tan-Sahsa Flight 414 crashed into a hill near Toncontin International Airport in Tegucigalpa, Honduras, because of a bad landing procedure by the pilot, killing 131 of the 146 passengers and crew.
  • 14 February 1990 – Indian Airlines Flight 605 crashed into a golf course short of the runway near Hindustan Airport, India. The flight crew failed to pull up after radio callouts of how close they were into the ground. The plane struck a golf course and an embankment, bursting into flames. Of the 146 occupants on the plane, 92 died, including both flight crew. 54 occupants survived the crash.
  • 24 November 1992 – China Southern Airlines Flight 3943 departed Guangzhou on a 55-minute flight to Guilin. During the descent towards Guilin, at an altitude of 7,000 feet (2,100 m), the captain attempted to level off the plane by raising the nose and the plane’s auto-throttle was engaged for descent. However, the crew failed to notice that the number 2 power lever was at idle, which led to an asymmetrical power condition. The plane crashed on descent to Guilin Airport, killing all 141 on board.
  • 23 March 1994 – Aeroflot Flight 593, an Airbus A310-300, crashed on its way to Hong Kong. The captain, Yaroslav Kudrinsky, invited his two children into the cockpit, and permitted them to sit at the controls, against airline regulations. His sixteen-year-old son, Eldar Kudrinsky, accidentally disconnected the autopilot, causing the plane to bank to the right before diving. The co-pilot brought up the plane too far, causing it to stall and start a flat spin. The pilots eventually recovered the plane, but it crashed into a forest, killing all 75 people on board.
  • 24 June 1994 – B-52 crashes in Fairchild Air Force Base. The crash was largely attributed to the personality and behavior of Lt Col Arthur «Bud» Holland, the pilot in command, and delayed reactions to the earlier incidents involving this pilot. After past histories, Lt Col Mark McGeehan, a USAF squadron commander, refused to allow any of his squadron members to fly with Holland unless he (McGeehan) was also on the aircraft. This crash is now used in military and civilian aviation environments as a case study in teaching crew resource management.
  • 30 June 1994 – Airbus Industrie Flight 129, a certification test flight of the Airbus A330-300, crashed at Toulouse-Blagnac Airport. While simulating an engine-out emergency just after takeoff with an extreme center of gravity location, the pilots chose improper manual settings which rendered the autopilot incapable of keeping the plane in the air, and by the time the captain regained manual control, it was too late. The aircraft was destroyed, killing the flight crew, a test engineer, and four passengers. The investigative board concluded that the captain was overworked from earlier flight testing that day, and was unable to devote sufficient time to the preflight briefing. As a result, Airbus had to revise the engine-out emergency procedures.
  • 2 July 1994 – USAir Flight 1016 crashed into a residential house due to spatial disorientation. 37 passengers were killed and the airplane was destroyed.
  • 20 December 1995 – American Airlines Flight 965, a Boeing 757-200 with 155 passengers and eight crew members, departed Miami approximately two hours behind schedule at 1835 Eastern Standard Time (EST). The investigators believe that the pilot’s unfamiliarity with the modern technology installed in the Boeing 757-200 may have played a role. The pilots did not know their location in relation to a radio beacon in Tulua. The aircraft was equipped to provide that information electronically, but according to sources familiar with the investigation, the pilot apparently did not know how to access the information. The captain input the wrong coordinates, and the aircraft crashed into the mountains, killing 159 of the 163 people on board.
  • 8 May 1997 – China Southern Airlines Flight 3456 crashed into the runway at Shenzhen Huangtian Airport during the crew’s second go-around attempt, killing 35 of the 74 people on board. The crew had unknowingly violated landing procedures, due to heavy weather.
  • 6 August 1997 – Korean Air Flight 801, a Boeing 747-300, crashed into Nimitz Hill, three miles from Guam International Airport, killing 228 of the 254 people on board. The captain’s failure to properly conduct a non-precision approach contributed to the accident. The NTSB said pilot fatigue was a possible factor.
  • 26 September 1997 — Garuda Indonesia Flight 152, an Airbus A300, crashed into a ravine, killing all 234 people on board. The NTSC concluded that the crash was caused when the pilots turned the aircraft in the wrong direction, along with ATC error. Low visibility and failure of the GPWS to activate were cited as contributing factors to the accident.
  • 12 October 1997 – Singer John Denver died when his newly-acquired Rutan Long-EZ home-built aircraft crashed into the Pacific Ocean off Pacific Grove, California. The NTSB indicated that Denver lost control of the aircraft while attempting to manipulate the fuel selector handle, which had been placed in an inaccessible position by the aircraft’s builder. The NTSB cited Denver’s unfamiliarity with the aircraft’s design as a cause of the crash.
  • 16 February 1998 – China Airlines Flight 676 was attempting to land at Chiang Kai-Shek International Airport but had initiate a go-around due to the bad weather conditions. However, the pilots accidentally disengaged the autopilot and did not notice for 11 seconds. When they did notice, the Airbus A300 had entered a stall. The aircraft crashed into a highway and residential area, and exploded, killing all 196 people on board, as well as seven people on the ground.
  • 16 July 1999 – John F. Kennedy, Jr. died when his plane, a Piper Saratoga, crashed into the Atlantic Ocean off the coast of Martha’s Vineyard, Massachusetts. The NTSB officially declared that the crash was caused by «the pilot’s failure to maintain control of his airplane during a descent over water at night, which was a result of spatial disorientation». Kennedy did not hold a certification for IFR flight, but did continue to fly after weather conditions obscured visual landmarks.
  • 31 August 1999 – Lineas Aéreas Privadas Argentinas (LAPA) flight 3142 crashed after an attempted take-off with the flaps retracted, killing 63 of the 100 occupants on the plane as well as two people on the ground.
  • 31 October 2000 – Singapore Airlines Flight 006 was a Boeing 747-412 that took off from the wrong runway at the then Chiang Kai-Shek International Airport. It collided with construction equipment on the runway, bursting into flames and killing 83 of its 179 occupants.
  • 12 November 2001 – American Airlines Flight 587 encountered heavy turbulence and the co-pilot over-applied the rudder pedal, turning the Airbus A300 from side to side. The excessive stress caused the rudder to fail. The A300 spun and hit a residential area, crushing five houses and killing 265 people. Contributing factors included wake turbulence and pilot training.
  • 24 November 2001 – Crossair Flight 3597 crashed into a forest on approach to runway 28 at Zurich Airport. This was caused by Captain Lutz descending below the minimum safe altitude of 2400 feet on approach to the runway.
  • 15 April 2002 – Air China Flight 129, a Boeing 767-200, crashed near Busan, South Korea killing 128 of the 166 people on board. The pilot and co-pilot had been flying too low.
  • 25 October 2002 – Eight people, including U.S. Senator Paul Wellstone, were killed in a crash near Eveleth, Minnesota. The NTSB concluded that «the flight crew did not monitor and maintain minimum speed.
  • 3 January 2004 – Flash Airlines Flight 604 dived into the Red Sea shortly after takeoff, killing all 148 people on board. The captain had been experiencing vertigo and had not noticed that his control column was slanted to the right. The Boeing 737 banked until it was no longer able to stay in the air. However, the investigation report was disputed.
  • 26 February 2004 – A Beech 200 carrying Macedonian President Boris Trajkovski crashed, killing the president and eight other passengers. The crash investigation ruled that the accident was caused by «procedural mistakes by the crew» during the landing approach.
  • 14 August 2005 – The pilots of Helios Airways Flight 522 lost consciousness, most likely due to hypoxia caused by failure to switch the cabin pressurization to «Auto» during the pre-flight preparations. The Boeing 737-300 crashed after running out of fuel, killing all on board.
  • 16 August 2005 – The crew of West Caribbean Airways Flight 708 unknowingly (and dangerously) decreased the speed of the McDonnell Douglas MD-82, causing it to enter a stall. The situation was incorrectly handled by the crew, with the captain believing that the engines had flamed out, while the first officer, who was aware of the stall, attempted to correct him. The aircraft crashed into the ground near Machiques, Venezuela, killing all 160 people on board.
  • 3 May 2006 – Armavia Flight 967 lost control and crashed into the Black Sea while approaching Sochi-Adler Airport in Russia, killing all 113 people on board. The pilots were fatigued and flying under stressful conditions. Their stress levels were pushed over the limit, causing them to lose their situational awareness.
  • 27 August 2006 – Comair Flight 5191 failed to become airborne and crashed at Blue Grass Airport, after the flight crew mistakenly attempted to take off from a secondary runway that was much shorter than the intended takeoff runway. All but one of the 50 people on board the plane died, including the 47 passengers. The sole survivor was the flight’s first officer, James Polhinke.
  • 1 January 2007 – The crew of Adam Air Flight 574 were preoccupied with a malfunction of the inertial reference system, which diverted their attention from the flight instruments, allowing the increasing descent and bank angle to go unnoticed. Appearing to have become spatially disoriented, the pilots did not detect and appropriately arrest the descent soon enough to prevent loss of control. This caused the aircraft to break up in mid air and crash into the water, killing all 102 people on board.[27]
  • 7 March 2007 – Garuda Indonesia Flight 200: poor Crew Resource Management and the failure to extend the flaps led the aircraft to land at an «unimaginable» speed and run off the end of the runway after landing. Of the 140 occupants, 22 were killed.
  • 17 July 2007 – TAM Airlines Flight 3054: the thrust reverser on the right engine of the Airbus A320 was jammed. Although both crew members were aware, the captain used an outdated braking procedure, and the aircraft overshot the runway and crashed into a building, killing all 187 people on board, as well as 12 people on the ground.
  • 20 August 2008 – The crew of Spanair Flight 5022 failed to deploy the MD-82’s flaps and slats. The flight crashed after takeoff, killing 154 out of the 172 passengers and crew on board.
  • 12 February 2009 – Colgan Air Flight 3407 (flying as Continental Connection) entered a stall and crashed into a house in Clarence Center, New York, due to lack of situational awareness of air speed by the captain and first officer and the captain’s improper reaction to the plane’s stick-shaker stall warning system. All 49 people on board the plane died, as well as one person inside the house.
  • 1 June 2009 – Air France Flight 447 entered a stall and crashed into the Atlantic Ocean following pitot tube failures and improper control inputs by the first officer. All 216 passengers and twelve crew members died.
  • 10 April 2010 – 2010 Polish Air Force Tu-154 crash: during a descent towards Russia’s Smolensk North Airport, the flight crew of the Polish presidential jet ignored automatic warnings and attempted a risky landing in heavy fog. The Tupolev Tu-154M descended too low and crashed into a nearby forest; all of the occupants were killed, including Polish president Lech Kaczynski, his wife Maria Kaczynska, and numerous government and military officials.
  • 12 May 2010 – Afriqiyah Airways Flight 771 The aircraft crashed about 1,200 meters (1,300 yd; 3,900 ft) short of Runway 09, outside the perimeter of Tripoli International Airport, killing all but one of the 104 people on board. The sole survivor was a 9-year-old boy named Ruben Van Assouw. On 28 February 2013, the Libyan Civil Aviation Authority announced that the crash was caused by pilot error. Factors that contributed to the crash were lacking/insufficient crew resource management, sensory illusions, and the first officer’s inputs to the aircraft side stick; fatigue could also have played a role in the accident. The final report cited the following causes: the pilots’ lack of a common action plan during the approach, the final approach being continued below the Minimum Decision Altitude without ground visual reference being acquired; the inappropriate application of flight control inputs during the go-around and after the Terrain Awareness and Warning System had been activated; and the flight crew’s failure to monitor and control the flight path.
  • 22 May 2010 – Air India Express Flight 812 overshot the runway at Mangalore Airport, killing 158 people. The plane touched down 610 meters (670 yd) from the usual touchdown point after a steep descent. CVR recordings showed that the captain had been sleeping and had woken up just minutes before the landing. His lack of alertness made the plane land very quickly and steeply and it ran off the end of the tabletop runway.
  • 28 July 2010 – The captain of Airblue Flight 202 became confused with the heading knob and thought that he had carried out the correct action to turn the plane. However, due to his failure to pull the heading knob, the turn was not executed. The Airbus A321 went astray and slammed into the Margalla Hills, killing all 152 people on board.
  • 20 June 2011 – RusAir Flight 9605 crashed onto a motorway while on its final approach to Petrozavodsk Airport in western Russia, after the intoxicated navigator encouraged the captain to land in heavy fog. Only five of the 52 people on board the plane survived the crash.
  • 6 July 2013 – Asiana Airlines Flight 214 tail struck the seawall short of runway 28L at San Francisco International Airport. Of the 307 passengers and crew, three people died and 187 were injured when the aircraft slid down the runway. Investigators said the accident was caused by lower than normal approach speed and incorrect approach path during landing.
  • 23 July 2014 – TransAsia Airways Flight 222 brushed trees and crashed into six houses in a residential area in Xixi Village, Penghu Island, Taiwan. Of the 58 people on board the flight, only ten people survived the crash. The captain was overconfident with his skill and intentionally descended and rolled the plane to the left. Crew members did not realize that they were at a dangerously low altitude and the plane was about to impact terrain until two seconds before the crash.
  • 28 December 2014 — Indonesia AirAsia Flight 8501 crashed into the Java Sea as a result of an aerodynamic stall due to pilot error. The aircraft exceeded the climb rate, way beyond its operational limits. All 155 passengers and 7 crew members on board were killed.
  • 6 February 2015 – TransAsia Airways Flight 235: one of the ATR 72’s engines experienced a flameout. As airplanes are able to fly on one engine alone, the pilot then shut down one of the engines. However, he accidentally shut off the engine that was functioning correctly and left the plane powerless, at which point he unsuccessfully tried to restart both engines. The plane then clipped a bridge and plummeted into the Keelung river as the pilot tried to avoid city terrain, killing 43 of the 58 on board.

See also[edit]

  • Airmanship
  • Controlled flight into terrain
  • Environmental causes of aviation stress
  • Human factors in aviation safety
  • Human reliability
  • Jet lag
  • Korean Air Lines Flight 007
  • Pilot fatigue
  • Sensory illusions in aviation
  • Spatial disorientation
  • Stress in the aviation industry
  • Threat and error management
  • User error
  • Kenya Airways Flight 507

References[edit]

  1. ^ «TENERIFE DISASTER – 27 MARCH 1977: The Utility of the Swiss Cheese Model & other Accident Causation Frameworks». Go Flight Medicine. Retrieved 13 October 2014.
  2. ^ Pilot’s Handbook of Aeronautical Knowledge (2016). U.S. Department of Transportation. Federal Aviation Administration, Flight Standards Service pdf.
  3. ^ Error Management (OGHFA BN). Operator’s Guide to Human Factors in Aviation. Skybrary
  4. ^ How exactly should I understand the term «accidental hull loss»?. Aviation stack overflow
  5. ^ a b «Risk management handbook» (PDF) (Change 1 ed.). Federal Aviation Administration. January 2016. Chapter 2. Human behavior. Retrieved 16 November 2018.
  6. ^ a b Rural and Regional Affairs and Transport References Committee (May 2013). «Aviation Accident Investigations» (PDF). Government of Australia.
  7. ^ Investigating Human Error: Incidents, Accidents, and Complex Systems. Ashgate Publishing. 2004. ISBN 0754641228.
  8. ^ a b «Accident statistics». www.planecrashinfo.com. Retrieved 21 October 2015.
  9. ^ Foyle, D. C., & Hooey, B. L. (Eds.). (2007). Human performance modeling in aviation. CRC Press.
  10. ^ a b Helmreich, Robert L. (18 March 2000). «On Error Management: Lessons From Aviation». BMJ: British Medical Journal. 320–7237 (7237): 781–785. doi:10.1136/bmj.320.7237.781. PMC 1117774. PMID 10720367.
  11. ^ a b Thomas, Matthew J.W. (2004). «Predictors of Threat and Error Management: Identification of Core Nontechnical Skills and Implications for Training Systems Design». The International Journal of Aviation Psychology. 14 (2): 207–231. doi:10.1207/s15327108ijap1402_6. S2CID 15271960.
  12. ^ a b c d e f Earl, Laurie; Bates, Paul R.; Murray, Patrick S.; Glendon, A. Ian; Creed, Peter A. (January 2012). «Developing a Single-Pilot Line Operations Safety Audit». Aviation Psychology and Applied Human Factors. 2 (2): 49–61. doi:10.1027/2192-0923/a000027. hdl:10072/49214. ISSN 2192-0923.
  13. ^ Li, Guohua; Baker, Susan P.; Grabowski, Jurek G.; Rebok, George W. (February 2001). «Factors Associated With Pilot Error in Aviation Crashes». Aviation, Space, and Environmental Medicine. 72 (1): 52–58. PMID 11194994.
  14. ^ Stanhope, N.; Crowley-Murphy, M. (1999). «An evaluation of adverse incident reporting». Journal of Evaluation in Clinical Practice. 5 (1): 5–12. doi:10.1046/j.1365-2753.1999.00146.x. PMID 10468379.
  15. ^ a b Wiegmann, D. A., & Shappell, S. A. (2001). Human error perspectives in aviation. The International Journal of Aviation Psychology, 11(4), 341–357.
  16. ^ Stacey, Daniel (15 January 2015). «Indonesian Air-Traffic Control Is Unsophisticated, Pilots Say». The Wall Street Journal. Retrieved 26 January 2015
  17. ^ a b Dekker, Sidney; Lundström, Johan (May 2007). «From Threat and Error Management (TEM) to Resilience». Journal of Human Factors and Aerospace Safety. 260 (70): 1–10.
  18. ^ Maurino, Dan (April 2005). «Threat and Error Management (TEM)». Canadian Aviation Safety Seminar (CASS); Flight Safety and Human Factors Programme – ICAO.
  19. ^ a b «Line Operations Safety Audit (LOSA)». SKYbrary. Retrieved 24 August 2016.
  20. ^ a b c Myers, Charles; Orndorff, Denise (2013). «Crew Resource Management: Not Just for Aviators Anymore». Journal of Applied Learning Technology. 3 (3): 44–48.
  21. ^ Helmreich, Robert L.; Merritt, Ashleigh C.; Wilhelm, John A. (1999). «The Evolution of Crew Resource Management Training in Commercial Aviation». The International Journal of Aviation Psychology. 9 (1): 19–32. doi:10.1207/s15327108ijap0901_2. PMID 11541445.
  22. ^ a b Salas, Eduardo; Burke, Shawn C.; Bowers, Clint A.; Wilson, Katherine A. (2001). «Team Training in the Skies: Does Crew Resource Management (CRM) Training Work?». Human Factors. 43 (4): 641–674. doi:10.1518/001872001775870386. ISSN 0018-7208. PMID 12002012. S2CID 23109802.
  23. ^ a b c Chou, Chung-Di; Madhavan, Das; Funk, Ken (1996). «Studies of Cockpit Task Management Errors». The International Journal of Aviation Psychology. 6 (4): 307–320. doi:10.1207/s15327108ijap0604_1.
  24. ^ a b c Hales, Brigette M.; Pronovost, Peter J. (2006). «The Checklist — A Tool for Error Management and Performance». Journal of Critical Care. 21 (3): 231–235. doi:10.1016/j.jcrc.2006.06.002. PMID 16990087.
  25. ^ Cavanagh, James F.; Frank, Michael J.; Allen, John J.B. (April 2010). «Social Stress Reactivity Alters Reward and Punishment Learning». Social Cognitive and Affective Neuroscience. 6 (3): 311–320. doi:10.1093/scan/nsq041. PMC 3110431. PMID 20453038.
  26. ^ «2005 Joseph T. Nall Report» (PDF). Archived from the original (PDF) on 2 February 2007. Retrieved 12 February 2007.
  27. ^ «Aircraft Accident Investigation Report KNKT/07.01/08.01.36» (PDF). National Transportation Safety Committee, Indonesian Ministry of Transportation. 1 January 2007. Archived from the original (PDF) on 16 July 2011. Retrieved 8 June 2013. Aircraft Accident Investigation Report of Indonesian’s National Transportation Safety Committee

Характерными ошибками, допускаемыми экипажем (оператором) в полёте является

1. Несвоевременное обнаружение отклонения контролируемого параметра по прибору. (некачественное выполнение членом экипажа своих функций, отсутствие должного внимания и сосредоточенности, отвлечение на посторонние дела).

2. Неверное чтение или фиксирование показаний прибора (Например: случай с авиагоризонтами 2-х типов показывающих положение самолёта относительно земли и земли относительно ВС).

3. Ошибочное определение отказавшего элемента при наличии нескольких

параллельно работающих устройств. (Наиболее распространённый случай — выключение работающего двигателя вместо отказавшего. Например: в 1982 г. после взлёта из

аэропорта Саратов на МИ-8 Смышляевского авиапредприятия на высоте около 200 м. произошёл отказ левого двигателя. В дефиците времени при создавшейся ситуации (не было достаточной ни высота, ни поступательная скорость для перехода на авторатацию) бортмеханик выключил нормально работающий правый двигатель. Вертолёт совершил грубую посадку на краю лётного поля аэродрома и потерпел поломку.

4. Ошибка в оценке ситуации по сформированной поспешно информационной модели. (Например: катастрофа Ту-154 под Иркутском в 1994 г. по причине разрыва турбины стартёра (загорание лампочки «обор. стартера велики» было принято экипажем за ложное срабатывание сигнализации) и продолжение полёта привело к катастрофе.

5. Ошибки при реализации управляющего воздействия (неточное или несвоевременное выполнение требуемых действий, нарушений технологии выполнения управляющих воздействий, Например: интенсивное взятие ручки Шаг-газ на вертолётах при авторатации ведёт к его раннему зависанию и, в лучшем случае к грубой посадке).

Данная группа ошибок характеризует профессиональный уровень членов экипажа. Следует иметь в виду, что существуют ещё две очень ёмкие группы, связанные с:

— дисциплиной Л. С. (сознательное нарушение правил полётов и иных нормативных

документов);

— психофизиологическим состоянием Л. С. (употребление алкоголя, наркотиков, острое утомление, неудовлетворительное самочувствие и т. д.).

Контрольные вопросы.

Авиационно-транспортная система (АТС)

1. Что такое авиационно-транспортная система?

2. Какие подсистемы входят в АТС?

3. Какая подсистема является в АТС центральной?

4. Что такое органическая система?

5. Каковы особенности экипажа как оператора эргатической системы?

6. На какие основные группы делятся факторы, влияющие на исход полёта?

7. Что такое человеческий фактор?

8. Какими показателями определяется надёжность работы экипажа?

9. Как различаются степени психофизиологической напряжённости человека- оператора?

10. Какие виды совместимости оператора и машины должны учитываться при создании эргатических систем?

11. Какие ошибки, допускаемые экипажем в полёте можно считать характерными?

12. В чем отличие действия от деятельности?

Глава 3.

В наши дни полёты самолётами коммерческих авиалиний часто приносят много неожиданностей. Задержки вылета, постоянно меняющиеся правила проноса в самолёт каких-либо предметов, становящиеся чудесным образом всё более тесными кресла, проходы от стоянки до аэропорта, которые периодически переносятся в новое место – всё это никого уже не удивляет.

Но независимо от того, происходит ли всё это в небе или на земле, все эти неприятности усугубляются ещё и трудностями по вине экипажей самолётов. Следующие десять историй посвящены тем ошибкам пилотов и бортпроводников, которые пассажиры ещё не скоро забудут.

10. Неправильное место посадки

В январе 2014 года пассажиров самолёта компании Southwest Airlines довольно сильно встряхнуло, когда их 737-й вдруг резко затормозил практически сразу после посадки. Ему пришлось это сделать, чтобы избежать катастрофы – оказалось, что экипаж перепутал не только взлётно-посадочную полосу, но даже и аэропорт. По словам пилотов, они просто приняли огни ВПП небольшого аэропорта в Миссури за место своего назначения. «Приземление в близлежащем аэропорту вместо намеченного или посадка на неправильную взлётно-посадочную полосу или рулёжную дорожку могли иметь катастрофические последствия», – сказала председатель Совета национальной безопасности транспорта Дебора Герман. После расследования происшествия оба пилота были отправлены в оплачиваемый отпуск, и, в конечном итоге, второй пилот ушёл в отставку.

Однако такие ошибки не так уж и необычны. В 2015 году во время полёта самолёта компании AirAsia из Сиднея в Малайзию капитан ввёл неправильные координаты в навигационную систему самолёта, в итоге самолёт сбился с курса. В конечном итоге все пассажиры благополучно приземлились, но только в Мельбурне.

9. Смельчаки

Два впавших в сентиментальность пилота Air Berlin, по-видимому, не подумали, какое впечатление произведёт на 200 пассажиров задуманный ими трюк. В октябре 2017 года их Airbus A330, направлявшийся из Майами в Берлин, совершал последний трансатлантический полёт этой авиакомпании, и лётчики решили сделать при посадке «почётный круг». Они подумали, что таким образом смогут устроить «достойное и эмоциональное прощание».

Вопреки стандартной процедуре посадки, A330 резко переместился влево, пролетев низко над аэропортом и очень близко к диспетчерской. Манёвр был отмечен воплями пассажиров, опасавшихся за свою жизнь, и подумавших, что через несколько секунд будет крушение. Свидетели на земле, а также сотрудники аэропорта, были тоже потрясены, предполагая, что самолёт сейчас врежется в терминал. «Это было странное чувство. A330 двигался прямо на нас, мы же не знали, что он собирается всего лишь сделать почётный круг», – вспоминает окаменевший от изумления зритель.

Несмотря на то, что посадка прошла благополучно, трюк, а также действия обоих пилотов, которые были немедленно и бессрочно отстранены от полётов, повлёк за собой расследование Федерального авиационного управления (FAA).

8. Предел терпения

У всех у нас есть свой предел терпения. Однако сотруднику JetBlue Стивену Слейтеру его несдержанность в одном конкретном случае стоила работы. В августе 2010 года после посадки самолёта в Международном аэропорту им. Кеннеди одна особо нетерпеливая пассажирка попыталась раньше времени встать и достать свои вещи с верхней полки. Слейтер попросил её не покидать своё место до полной остановки, однако пассажирка не отреагировала. Когда Слейтер подошёл к ней, пассажирка уронила ему на голову свою огромную сумку.

Вместо того чтобы извиниться, путешественница-скандалистка стала оскорблять бортпроводника. Тогда Слейтер объявил по громкой связи, что оскорбившая его пассажирка вынуждает Слейтера пойти на решительные меры. Он взял два бокала пива и нажал на кнопку открывания аварийного эвакуационного лотка. После этого он вылил пиво на голову пассажирке и выкинул её через аварийный люк, положив таким образом конец своей 20-летней карьере бортпроводника.

Позже в тот же день полицейские окружили дом Слейтера, словно речь шла о захвате особо опасного террориста. Они арестовали улыбающегося и уже безработного бортпроводника. Ему было предъявлено обвинение в предумышленном причинении ущерба и угрозе действием. Обвинение было поддержано другими бортпроводниками, которые заявили, что он не должен был реагировать столь эмоционально.

7. Ругань в воздушном пространстве Техаса

По-видимому, в марте 2011 года пилот Southwest Airlines «встал не с той ноги». Находясь в полёте, он отправился к своему второму пилоту, чтобы разразиться отборной руганью. Ничто не запрещает ведение в кабине личных бесед, но в этот раз тирада пилота по случайности транслировалась на всё воздушное пространство Техаса. Причина его раздражения была проста и понятна: возраст, сексуальная ориентация и габариты его коллег.

«У нас есть двенадцать стюардов. Одиннадцать (ругательства) сверх…(ругательства), (ругательства)-гомосексуалистов и одна старуха. Одиннадцать. Только подумай об этом. Я думал, что в Чикаго я буду во всю развлекаться. А вместо этого – толпа из геев, бабушек и толстяков. Теперь я возвращаюсь в Хьюстон, который является одним из самых ужасных мест. Я имею в виду, что и там тоже на несколько милых птенчиков приходится толпа всех этих старых (ругательства) и старух».

По-видимому, когда пилот начал оскорблять своих коллег, управление воздушным движением в Хьюстоне всё-таки решило вмешаться. «Отлично, но кто бы это не говорил, лучше посмотрите, куда вы это говорите», – сказал диспетчер. Можно только представить себе взгляд и внезапную бледность на лице пилота, когда он понял, что микрофон оставался включённым. После того как диспетчеры воздушного движения отправили запись в FAA, пилот был отстранён от полётов без сохранения зарплаты.

6. Когда зовёт природа

Диарея никогда не бывает приятной, особенно если вы находитесь на высоте 11600 метров над землёй и ваше имя – Жоао Корреа. В марте 2009 года через 30 минут полёта «Дельты» из Гондураса в Атланту 43-летний мужчина из Кливленда почувствовал внезапные природные позывы. С трудом сдерживаясь, Корреа попытался пробраться в уборную, но обнаружил, что единственный проход к ней был заблокирован тележкой с напитками. После того как его просьбы воспользоваться туалетом в бизнес-классе были отклонены, Корреа оставалось только терпеливо ждать, но это могло продлиться бесконечно долго.

Чувствуя, что время поджимает, он бросился в бизнес-класс, как олимпийский спринтер, но вновь наткнулся на упрямую стюардессу, решившую играть по правилам. Несмотря на явно острую потребность Корреа, стюардесса встала на его пути и перекрыла рукой доступ к уборной. Действия стюардессы демонстрируют заметный недостаток здравого смысла, учитывая те запахи, на которые она обрекала весь самолёт своей приверженностью к инструкциям. Время поджимало, поэтому Корреа схватил руку стюардессы и вывернул её, чтобы попасть в уборную.

Ему удалось освободить свой кишечник в уединении и правильным образом, но в Атланте Корреа был арестован – после того, как стюардесса обвинила его в нападении. Впоследствии он был обвинён во вмешательстве в действия экипажа, и ему пришлось провести два дня в тюрьме, прежде чем федеральный судья рассмотрел его дело. В итоге он заключил сделку с федеральным прокурором, который согласился отказаться от обвинений, если он пройдёт трехмесячную «программу по профилактике правонарушений».

5. Секс в воздухе (с самим собой)

В последнее десятилетие работе British Airways посвящено множество слухов. Пустые бутылки из-под шампанского, которые выносят из кабины пилотов, драки между стюардами, публичные «ласки» на глазах у пассажиров – словом, скучать не дают. Однако в 2016 году произошёл, наверное, самый нелицеприятный скандал, когда 51-летний капитан Колин Гловер был пойман с поличным.

Появилась серия подробных фотографий (в СМИ), на которых капитан Гловер доставляет себе удовольствие, находясь в кабине на высоте 11600 метров. Порнографический журнал на приборной доске самолёта, чёрные кружевные чулки на капитане и фотографии голого мужчины в туалете самолёта придают этой серии особый шарм.

Скандальные фотографии, как полагают, были сделаны во время двух разных рейсов, хотя некоторые говорят, что в действительности они были сделаны в симуляторе, а не во время реального полёта. Несмотря на то, что капитан Гловер отрицает, что это его фотографии, он был отстранён от полётов на неопределённый срок, пока авиакомпания проводит расследование.

4. «Всё пропало!»

Предполагается, что в критические моменты мы можем брать пример со стюардесс, которые всегда излучают уверенность и спокойствие. Но, хотя мы и ожидаем от них огромного умения владеть собой, иногда человеческая природа берёт верх над любыми навыками. Так произошло в октябре 2017 года, когда во время рейса AirAsia из Пертана в Бали в салоне стало внезапно падать давление, в результате чего самолёт резко снизил высоту полёта на 6700 метров.

Поначалу особой паники не было – до тех пор, пока стюардессы не начали кричать и плакать, в результате чего многие из 145 пассажиров наложили в штаны. Это привело к тому, что пассажиры присоединились к воплям стюардесс и стали орать так, словно они были на концерте дэт-метал – вместо того чтобы вспомнить о своих кислородных масках. В частности, один из пассажиров был так напуган экстравагантным поведением экипажа, что отправил прощальное послание своему сыну. «Паника обострилась из-за поведения сотрудников, которые стали кричать», – написал шокированный пассажир, когда он понял, что гибель никому не угрожает и давление в салоне вскоре будет восстановлено.

После этой поездки на американских горках AirAsia Indonesia принесла извинения «за все доставленные неудобства».

3. Тревожные симптомы

В ноябре 2015 года рейс авиакомпании American Airlines, возвращавшийся из Германии, приземлился в Шарлотте, штат Северная Каролина. Ещё при подготовке к вылету из США несколько стюардесс выказывали обеспокоенность по поводу поведения одной из своих коллег, Джоанны Сноу. Несмотря на то, что они доложили в Федеральную службу воздушных маршалов о неадекватном поведении Сноу, American Airlines отклонила просьбу об её удалении с рейса. Ещё более тревожит то, что Сноу лично сказала маршалу, что она «сумасшедшая» и что им предстоит «крушение».

Во время полёта обеспокоенность стюардесс получила своё подтверждение, Сноу ударила одну из них по лицу. Менее чем через час она несколько раз попыталась вытолкнуть авиационного маршала, сидящего в передней части самолёта, после чего переключилась на маршала, сидевшего в хвосте самолёта. Решив поиграть в Рокки Бальбоа, Сноу ударила одного из офицеров в грудь. Но, несмотря на всё произошедшее, Сноу не была арестована в Германии, и ей разрешили сопровождать на следующий день обратный рейс, в течение которого её психическое состояние ещё больше ухудшилось. Сноу была задержана только после того, как попыталась в Шарлотте уклониться от паспортного контроля. Для этого потребовалось несколько офицеров, Сноу пиналась и кричала.

Сноу обвинили в попытках сорвать работу экипажа и нападении на маршалов авиации. В конце концов, она была освобождена после того, как её признали невиновной по причине безумия. В частности, она перенесла «психический срыв из-за гормональных инъекций против старения».

2. Заключение в уборной

Капитан рейса авиакомпании Chatauqua Airlines перед тем, как заходить на посадку, решил на высоте 3000 метров посетить туалет, но тут произошла целая серия достойных комедийного сериала происшествий. Когда покончивший со своими делами в туалете пилот попытался покинуть уборную, сломалась дверная защёлка, оставив его запертым внутри. Так как до запланированной посадки оставалось всего несколько минут, пилот стал паниковать и стучать в дверь, что привлекло внимание пассажира в первом ряду. Капитан попросил его сообщить своим коллегам, находящимся в кабине, о его нынешнем неловком положении.

К сожалению, акцент добросовестно исполнившего поручение пассажира был похож на «ближневосточный», и это напугало второго пилота и членов экипажа. У них создалось впечатление, что происходит угон. Второй пилот немедленно передал сообщение наземным службам: «Капитан ушёл в хвост самолёта и пропал. Кто-то с сильным иностранным акцентом пытается проникнуть в кабину экипажа. Он говорит, что капитан застрял в туалете и с сильным иностранным акцентом произносит пароль для входа в кабину, но я не собираюсь его впускать».

К счастью для капитана, он сумел выломать дверь туалета как раз вовремя, чтобы успокоить нервы своего пилота и благополучно приземлиться в аэропорту Ла-Гуардия. Однако при посадке самолёт был встречен сотрудниками ФБР и полицией аэропорта. В конечном итоге все поняли, что произошло досадное недоразумение.

1. «Мы все погибнем!»

Иногда стресс от работы вполне способен повредить хрупкий человеческий мозг. Именно это и произошло в 2012 году, когда пилот JetBlue, капитан Клейтон Осбон, перенёс в воздухе приступ умопомрачения, в результате чего его самолёт, летевший в Лас-Вегас, изменил курс и направился в Амарилло, штат Техас. Осбон объявил через интерком: «Это ваш чёртов капитан», после чего стал бегать взад-вперёд по проходу, кричать о нападении террористов и необходимости обратиться к религии: «Молитесь о царстве Иисуса Христа прямо сейчас! Этот самолёт никогда не доберётся до Вегаса! Мы все погибнем!»

Пока испуганные пассажиры готовились к худшему, несколько наиболее храбрых и решительных из них схватили Осбона, связали его и уложили на пол, а первый пилот закрылся внутри кабины.

Несколько месяцев спустя Осбон предстал перед судом штата Техас и был признан невиновным по причине безумия. Возможно, ещё более шокирует тот факт, что после оправдания Осбон имел наглость подать в суд на JetBlue и потребовать почти 15 миллионов долларов за то, что авиакомпания «неоправданно подвергла опасности» чужие жизни, допустив его к полёту, что в конечном итоге стоило ему его карьеры и репутации.

Кроме того, на авиакомпанию JetBlue подали в суд 13 пассажиров из 135, которые были на борту. По словам жителя Бруклина, который решил судиться: «Когда он закричал “Самолёт в свободном падении”, я прочитал молитву и попрощался со всеми, кого я знаю».

Специально для читателей моего блога Muz4in.Net — перевёл Дмитрий Оськин по статье с сайта listverse.com

Copyright Muz4in.Net © — Данная новость принадлежит Muz4in.Net, и являются интеллектуальной собственностью блога, охраняется законом об авторском праве и не может быть использована где-либо без активной ссылки на источник. Подробнее читать — «об Авторстве»

Вам понравилась статья? Просто перейди по рекламе после статьи. Там ты найдешь то, что ты искал, а нам бонус…

Почитать ещё:

Определение и классификация ошибок пилота

Грустная шутка пилотов несет информацию о поведении предельной граничной энергетики условий профессиональной деятельности. Прежде чем сформулировать определение ошибки, нужно определить проблему.

По мнению автора, проблема разработки эффективных мер предупреждения ошибок пилота заключается:

  • (1) в узком, рассчитанном на профессиональный прагматический взгляд рассмотрении, тогда как проблема требует мультидисциплинарного подхода;
  • (2) в существующих классификационных схемах ошибок.

Рассмотрим, что предлагают энциклопедические и словарные издания для определения и описания понятия ошибки. В словаре Ожегова ошибка описывается как неправильное и непредумышленное действие. Для целей нашего исследования данное определение явно недостаточное. В советском энциклопедическом и философских словарях термин отсутствует вообще. В психологическом словаре также отсутствует общее определение человеческой ошибки, но есть определение шибки оператора как «превышение установленного предельного значения, затрудняющее нормальное функционирование эргатической системы» (Психология. Словарь. М.: 1990. – 494 с.). Почему авторы словаря толкуют ошибку только как «превышение» и «значения» каких предметов (прибора, механизма) затрудняют работу?  Более удовлетворительное определение есть у авторов «Ошибка человека-оператора – это такое действие или бездействие, которое привело к отклонению управляемых параметров технической части системы за допустимые пределы или запрещено правилами»  (М.А. Котик, А.М. Емельянов).

С уважением принимаем труд людей, исследовавших категорию ошибки, и отметим, что аксиоматическое определение пока не достигнуто. В нашей работе предлагается несколько вариантов определения ошибки.

Возможны следующие определения:

  • (1) неумышленное действие, приводящее к отклонению от цели;
  • (2) неправильное действие с точки зрения стандартизованных процедур или результат неадекватного управления стрессом в возникших нестандартных ситуациях;
  • (3) неправильное поведение, действие, результат – с точки зрения других людей.

Но наиболее адекватным определением, которое отвечает целям нашего исследования, представляется более абстрактное определение, дающее возможность не ставить точки, а многоточия…  Ошибка —  это оценка результата как неадекватного настоящим ресурсным представлениям и сознанию субъекта.

Что это означает? Варианты объяснения следующие. Вспомним, как мы в деловой и личной жизни оцениваем свои ресурсные состояния, поведение и поступки, решения и результаты. Мы почти всегда имеем чувство и практически даже уверены, что могли бы поступить иначе и иметь лучший результат. Иногда бывает и противоположная оценка неожиданно превышенного результата. Почему мы не поступаем так, чтобы иметь лучший результат? Ответ – не были способны, были не в состоянии. Поступили только так, как было. Тогда это означает, что ошибок не бывает. Есть ресурсные решения, или иначе — решения, основанные на имеющихся в распоряжении человека ресурсов, в момент принятия решения и совершения действия.

В момент оценки того, что произошло, мы уже имеем иное сознание, знание, опыт. Правда, это относится к случаям развивающегося сознания. Если сознание остается прежним, человек считает, что поступил самым лучшим образом, и никаких лучших альтернативных решений и поведения не представилось. Понимание этого контекста приводит нас к парадоксальному выводу: мы ничего из своих результатов деятельности не можем называть ошибкой. Если оцениваем, что результат мог быть другим и лучше, то это значит, мы выросли над собой и это следует оценивать как личное развитие.

Классификация «3-Н». Однако случайных слов в человеческом языке не бывает. Слово «ошибка» несет отражение реалии. Весь вопрос в том, по каким причинам человек поступает не лучшим образом. Исследования с определений переходят к моделированию и классификациям. Эмпирические модели и классификации приводят нас к более глубокому пониманию по сравнению, когда мы имеем только определения. Многие из них приводятся в литературе. Нижеследующую модель названа автором «Классы состояния ресурсов «3-Н»: небрежение, некомпетентность, неопытность. Доли каждого класса состояния ресурсов в поведении оператора определены автором экспертным способом по анализу множества разрозненной статистики.

  • 1 Н. Небрежение. Это класс преднамеренных ошибок, сознательных действий, направленных на непреднамеренный риск, нарушение правил. Этот класс поведения пилота усматривается в психообразе полета и самой профессии. Достоверные и многократные исследования подтверждают связь этого класса с классом низкого профессионализма. Напротив, осторожность, умеренность и твердые решения – смысл профессии. Доля неблагоприятных исходов по этому классу составляет около 25%.
  • 2 Н. Некомпетентность. Это — ошибки неподготовленности, неумения, недостаточной профессиональной подготовки, недостаточные навыки. Доля этого класса ресурсного состояния составляет примерно треть: 35% и он связан более всего с нижеследующим.
  • 3 Н. Неопытность. Забывания, невнимательность, рассеянность, нерешительность. Самый большой класс состояния ресурсов – около 40% неблагоприятных исходов. Подвидов этого класса может быть много.

Одним из подвидов класса неопытности являются так называемые ошибки выбора. Например: «шасси убраны» — «шасси выпущены». Выбор и осцилляция сознания  являются характерными примерами, приводившими к посадке с убранным шасси с тремя видами сигнализации: световой («зеленые горят»), звуковой (сирена), механический (полосатый указатель на капоте). Это очень распространенное состояние сознания человека. Вспомним, как мы запоминаем номер телефона: 22 18 81. Стоит один раз переставить мысленно две пары последних цифр (18 81) – (81 18), и мы можем впоследствии в сомнениях долго заглядывать в записную книжку.

Еще один вид этого же класса – привычка, или привычный паттерн поведения. Пример: освобождение полосы по определенной рулежке (РД) в аэропорту базирования пилотом, делавшим это сотни раз. В тот момент, когда было указание диспетчера освободить полосу по другой РД.  Все виды ошибок «неопытности» сокращаются десятилетиями путем разработки и внедрения стратегий предупреждения: карты обязательных проверок, описание алгоритмов всех процессов, руководства, наставления.

Взаимосвязь частей структуры личности пилота очевидна, но очевидно и их различие в способах обучения. Технически грамотный специалист и искусный оператор может оказаться слабым в суждении и технике принятия решений. Человек, обладающий и тем, и другим может иметь слабые представления о навыках лидерства и делегирования в экипаже, что критически ослабляет использование ресурсов экипажа. Наконец, имея все выше перечисленное, пилот со слабой адаптацией к стрессовым ситуациям или ослабляя адаптацию наркотизирующими средствами (алкоголем, курением, пилюлями) может не справиться с управлением в сложной ситуации.

Полезные ссылки:

  • Классификации и подходы в исследованиях факторов ошибок пилотов

  • Идентификации ошибок пилота

  • Определение и классификация ошибок пилота

  • Решения принимаемые оператором и пилотом. (формулы)

  • Экология ресурсов пилота. «Человеческий фактор».

  • Психологическая характеристика ошибочный действий пилота

  • Слабоволие пилота

  • Индикативное состояние пилота. Виртуальное состояние пилота.

  • Коллизия образов у пилота самолета

  • Консуетальное состояние пилота

  • Психическое состояние пилота

  • Разбор инцидента типа посадки с невыпущенным шасси

  • Разбор инцидента — уход на второй круг

  • Инцидент типа — уборка шасси на пробеге

  • Экспериментально-психологическое моделирование ошибок пилота

  • Принцип операционализации — принцип в борьбы с ошибками в авиации

  • Операционализация за счет субъективных средств в авиации. Пример.

  • Принцип усложненных элементов управления самолета. Научно.

  • Примеры операционализации в авиационном мире.

Avia.pro

1994 крушение базы ВВС Фэйрчайлд B-52, вызванные полетом воздушного судна за пределы его эксплуатационных возможностей. Здесь самолет находится в невосстановимом крене за доли секунды до крушения. Этот инцидент теперь используется в военной и гражданской авиации в качестве примера при обучении управлению ресурсами экипажа.

Фактическая траектория полета (красный цвет) из TWA, рейс 3 от вылета до места крушения (управляемый полет на местности ). Синяя линия показывает номинальное поле Лас-Вегаса, а зеленое — типичное поле из Боулдера. Пилот случайно использовал исходящий курс Боулдера вместо соответствующего курса Лас-Вегаса.

Аэропорты вылета / назначения и местонахождение места крушения Вариг Рейс 254 (основная навигационная ошибка, приводящая к исчерпанию топлива). Позже план полета был показан 21 пилоту крупной авиакомпании. Такую же ошибку совершили не менее 15 пилотов.

Карта Катастрофа в аэропорту Линате вызвано неправильным маршрутом руления (красным вместо зеленого), поскольку диспетчерская не давала четких инструкций. Авария произошла в густом тумане.

В Катастрофа в аэропорту Тенерифе теперь служит примером из учебника.[1] Из-за нескольких недоразумений рейс KLM попытался взлететь, пока рейс Pan Am еще находился на взлетно-посадочной полосе. Аэропорт принимал необычно большое количество коммерческих авиалайнеров, что нарушало нормальное использование рулежных дорожек.

Трехстрелочный высотомер — один из наиболее подверженных ошибкам показаний пилотов (причина UA 389 и Г-АОВД вылетает).

Исторически термин ошибка пилота использовался для описания несчастный случай в котором действие или решение, принятое пилот была причиной или способствовавшим фактором, приведшим к аварии, но также включает неспособность пилота принять правильное решение или предпринять надлежащие действия.[2] Ошибки — это преднамеренные действия, которые не приводят к желаемым результатам.[3] Чикагская конвенция определяет авиационное происшествие как «происшествие, связанное с полетом […] воздушного судна, в котором […] человек получил смертельное или серьезное ранение […] кроме случаев, когда […] телесные повреждения причинены другими лицами «.[4] Следовательно, определение «ошибки пилота» не включает преднамеренное столкновение (и такое падение не является несчастным случаем).

Причины ошибки пилота включают психологические и физиологические ограничения человека. Различные формы управление угрозами и ошибками были внедрены в программы обучения пилотов, чтобы научить членов экипажа, как справляться с надвигающимися ситуациями, возникающими в ходе полета.[5]

Учет пути человеческие факторы влияние на действия пилотов теперь считается стандартной практикой для следователей авиационных происшествий при изучении цепочки событий, приведших к аварии.[5][6]

Описание

Современные специалисты по расследованию авиационных происшествий избегают слов «ошибка пилота», поскольку их работа заключается в установлении причины аварии, а не в распределении виновных. Более того, любая попытка обвинить пилотов не означает, что они являются частью более широкой системы, которая, в свою очередь, может быть причиной их усталости, рабочего напряжения или отсутствия подготовки.[6] В Международная организация гражданской авиации (ИКАО) и ее государства-члены поэтому приняли предложение Джеймса Ризона модель причинно-следственной связи в 1993 году, чтобы лучше понять роль человеческого фактора в авиационных происшествиях.[7]

Тем не менее, ошибка пилота является основной причиной авиационных происшествий. В 2004 году она была определена как основная причина 78,6% катастрофических авиационных происшествий в авиации общего назначения (GA) и как основная причина 75,5% авиационных происшествий в авиации общего назначения. Соединенные Штаты.[8][нужен лучший источник ] Есть несколько факторов, которые могут вызвать ошибку пилота; Ошибки в процессе принятия решений могут быть вызваны привычными тенденциями, предвзятостями, а также сбоями в обработке поступающей информации. Для пилотов самолетов в экстремальных обстоятельствах эти ошибки могут привести к гибели людей.[9]

Причины ошибки пилота

Пилоты работают в сложных условиях и регулярно подвергаются значительному ситуационному стрессу на рабочем месте, вызывая ошибку пилота, которая может привести к угрозе безопасности полета. Хотя авиационные происшествия случаются нечасто, они хорошо заметны и часто приводят к значительному количеству погибших. По этой причине исследования причинных факторов и методологий снижения риска, связанного с ошибкой пилота, являются исчерпывающими. Ошибка пилота является следствием физиологических и психологических ограничений, присущих человеку. «Причины ошибки включают усталость, загруженность и страх, а также когнитивная перегрузка, бедный межличностное общение несовершенный обработка информации, и неправильное принятие решений «.[10] На протяжении каждого полета экипажи по своей сути подвергаются множеству внешних угроз и совершают ряд ошибок, которые могут отрицательно повлиять на безопасность самолета.[11]

Угрозы

Термин «угроза» определяется как любое событие, «внешнее по отношению к экипаж самолета влияние, которое может увеличить операционную сложность полета ».[12] Угрозы могут быть далее разбиты на угрозы окружающей среде и угрозы авиакомпаний. Угрозы окружающей среде в конечном итоге не зависят от членов экипажа и авиакомпании, поскольку они не имеют никакого влияния на «неблагоприятные» погодные условия, управления воздушным движением недостатки, удары птиц и пересеченная местность ».[12] И наоборот, летный экипаж не может управлять угрозами авиакомпании, но может контролироваться руководством авиакомпании. К этим угрозам относятся «сбои в работе самолета, перебои в работе кабины, рабочее давление, ошибки / события на земле / на рампе, события и прерывания в кабине, ошибки наземного обслуживания и несоответствие руководств и схем».[12]

Ошибки

Термин «ошибка» определяется как любое действие или бездействие, ведущее к отклонению от командных или организационных намерений.[10] Ошибка возникает из-за физиологических и психологических ограничений человека, таких как болезнь, прием лекарств, стресс, злоупотребление алкоголем / наркотиками, усталость, эмоции и т. Д. Ошибка неизбежна для человека и в первую очередь связана с операционными и поведенческими сбоями.[13] Ошибки могут отличаться от неправильных установка высотомера и отклонения от курса полета до более серьезных ошибок, таких как превышение максимальных скоростей конструкции или забывание опустить закрылки для посадки или взлета.

Принятие решений

Причины отрицательного сообщения об авариях включают чрезмерную занятость персонала, запутанные формы ввода данных, отсутствие обучения и недостаточного образования, отсутствие обратной связи с персоналом по сообщаемым данным и карательную организационную культуру.[14] Вигманн и Шаппелл изобрели три когнитивные модели для анализа примерно 4000 факторов пилотов, связанных с более чем 2000 авиационными происшествиями ВМС США. Хотя три когнитивные модели имеют небольшие различия в типах ошибок, все три приводят к одному и тому же выводу: ошибки в суждениях.[15] Три шага — это ошибки принятия решений, постановки целей и выбора стратегии, и все они были тесно связаны с первичными авариями.[15] Например, 28 декабря 2014 г. Рейс 8501 авиакомпании AirAsia, на борту которого находились семь членов экипажа и 155 пассажиров, упал в Яванское море из-за нескольких фатальных ошибок, допущенных капитаном в плохих погодных условиях. В этом случае капитан решил превысить максимальную скорость набора высоты для коммерческого самолета, что привело к критическому срыву, из которого он не смог выйти.[16]

Управление угрозами и ошибками (TEM)

ТЕМ включает эффективное обнаружение и реагирование на внутренние или внешние факторы, которые могут снизить безопасность полетов воздушного судна.[11] Методы обучения воспроизводимости стресса ТЕА или надежности работы в повторяющихся ситуациях.[17] ТЕА направлена ​​на подготовку экипажей с «координационными и когнитивными способностями, чтобы справляться как с рутинными, так и с непредвиденными неожиданностями и аномалиями».[17] Желаемый результат обучения ТЕА — развитие «устойчивости». В данном контексте отказоустойчивость — это способность распознавать нарушения, которые могут возникнуть во время выполнения полетов, и действовать в соответствии с ними. Обучение ТЕА происходит в различных формах с разным уровнем успеха. Некоторые из этих методов обучения включают сбор данных с использованием аудит безопасности линейных операций (LOSA), внедрение управления ресурсами экипажа (CRM), управление задачами кабины (CTM) и интегрированное использование контрольных списков в обоих коммерческий и авиация общего назначения. Некоторые другие ресурсы, встроенные в большинство современных самолетов, которые помогают минимизировать риски и управлять угрозами и ошибками: бортовые системы столкновения и предотвращения столкновения (БСПС) и системы предупреждения о приближении к земле (GPWS).[18] За счет консолидации бортовых компьютерных систем и проведения надлежащей подготовки пилотов авиакомпании и члены экипажа стремятся снизить неотъемлемые риски, связанные с человеческим фактором.

Аудит безопасности линейных операций (LOSA)

LOSA — это структурированная программа наблюдений, предназначенная для сбора данных для разработки и улучшения мер противодействия эксплуатационным ошибкам.[19] Благодаря процессу аудита обученные наблюдатели могут собирать информацию о стандартных процедурах, протоколе и процессах принятия решений, которые летные экипажи выполняют при столкновении с угрозами и ошибками во время нормальной эксплуатации. Этот управляемый данными анализ управления угрозами и ошибками полезен для изучения поведения пилота в связи с ситуационным анализом. Он обеспечивает основу для дальнейшего внедрения процедур безопасности или обучения, чтобы помочь уменьшить ошибки и риски.[12] Наблюдатели на проверяемых рейсах обычно наблюдают следующее:[19]

  • Возможные угрозы безопасности
  • Как члены экипажа устраняют угрозы
  • Ошибки, которые порождают угрозы
  • Как члены экипажа справляются с этими ошибками (действие или бездействие)
  • Определенное поведение, которое, как известно, связано с авиационными происшествиями и инцидентами

LOSA была разработана, чтобы помочь методам управления ресурсами экипажа уменьшить количество человеческих ошибок при выполнении сложных полетов.[12] LOSA предоставляет полезные данные, которые показывают, сколько ошибок или угроз встречается в каждом полете, количество ошибок, которые могли привести к серьезной угрозе безопасности, и правильность действий или бездействия экипажа. Эти данные оказались полезными при разработке методов CRM и определении того, какие проблемы необходимо решать в процессе обучения.[12]

Управление ресурсами экипажа (CRM)

CRM это «эффективное использование всех доступных ресурсов отдельными лицами и экипажами для безопасного и эффективного выполнения миссии или задачи, а также выявления и управления условиями, которые приводят к ошибке».[20] Обучение CRM интегрировано и является обязательным для большинства программ обучения пилотов и является общепринятым стандартом для развития навыков человеческого фактора для летных экипажей и авиакомпаний. Хотя универсальной программы CRM не существует, авиакомпании обычно настраивают свое обучение в соответствии с потребностями организации. Принципы каждой программы обычно тесно связаны. По данным ВМС США, существует семь важнейших навыков CRM:[20]

  • Принятие решений — использование логики и суждений для принятия решений на основе доступной информации
  • Напористость — готовность участвовать и высказывать свою позицию до тех пор, пока не убедятся фактами, что другой вариант более правильный
  • Анализ миссии — способность разрабатывать краткосрочные и долгосрочные планы действий в чрезвычайных ситуациях
  • Общение — ясная и точная отправка и получение информации, инструкций, команд и полезных отзывов
  • Лидерство — способность направлять и координировать действия пилотов и членов экипажа
  • Адаптивность / гибкость — способность изменять образ действий в связи с изменением ситуации или появлением новой информации
  • Ситуационной осведомленности — способность воспринимать окружающую среду во времени и пространстве и понимать ее значение

Эти семь навыков составляют критически важную основу для эффективной координации работы экипажей. С развитием и использованием этих основных навыков летные экипажи «подчеркивают важность выявления человеческих факторов и динамики команды для уменьшения человеческих ошибок, которые приводят к авиационным сбоям».[20]

Применение и эффективность CRM

С момента внедрения CRM примерно в 1979 году, в связи с необходимостью расширения исследований по управлению ресурсами со стороны НАСА, в авиационной отрасли произошла огромная эволюция применения процедур обучения CRM.[21] Приложения CRM разрабатывались в нескольких поколениях:

  • Первое поколение: акцентировал внимание на индивидуальной психологии и тестировании, где можно было исправить поведение.
  • Второе поколение: показал смещение акцента на динамику группы кабины.
  • Третья эволюция: диверсификация возможностей и акцент на обучении экипажей тому, как они должны действовать как в кабине, так и вне ее.
  • Четвертое поколение: CRM интегрировала процедуру в обучение, что позволяет организациям адаптировать обучение к своим потребностям.
  • Пятое поколение (нынешнее): признает, что человеческая ошибка неизбежна, и предоставляет информацию для повышения стандартов безопасности.[22]

Сегодня CRM реализуется посредством тренировок пилотов и экипажей, моделирования, а также посредством взаимодействия с высокопоставленным персоналом и летными инструкторами, таких как брифинг и разбор полетов. Хотя трудно измерить успех программ CRM, исследования показали, что существует корреляция между программами CRM и улучшенным управлением рисками.[22]

Управление задачами в кабине (CTM)

Здесь можно получить несколько источников информации из одного интерфейса. Пилоты могут получить информацию по индикатору ориентации, высоте или воздушной скорости за одно сканирование.

Управление задачами из кабины (CTM) — это «пилотные операции на уровне управления, которые выполняют, когда они инициируют, отслеживают, устанавливают приоритеты и завершают задачи из кабины».[23] «Задача» определяется как процесс, выполняемый для достижения цели (например, перелет к путевой точке, снижение до желаемой высоты).[23] Обучение CTM фокусируется на обучении членов экипажа тому, как выполнять параллельные задачи, требующие их внимания. Сюда входят следующие процессы:

  • Инициирование задачи — при наличии соответствующих условий
  • Мониторинг задач — оценка прогресса и статуса задачи
  • Приоритезация задач — в зависимости от важности и срочности для безопасности
  • Распределение ресурсов — распределение человеческих и машинных ресурсов для задач, которые необходимо выполнить
  • Прерывание задачи — приостановка выполнения задач с более низким приоритетом для выделения ресурсов задачам с более высоким приоритетом
  • Возобновление задачи — продолжение ранее прерванных задач
  • Завершение задачи — завершение или незавершение задачи

Потребность в обучении CTM является результатом способности человеческого внимания и ограничений рабочей памяти. Члены экипажа могут посвятить больше умственных или физических ресурсов конкретной задаче, которая требует приоритета или требует немедленной безопасности воздушного судна.[23] CTM интегрирован в программу обучения пилотов и идет рука об руку с CRM. Некоторые операционные системы самолетов достигли прогресса в помощи CTM, объединив приборы на одном экране. Примером этого является цифровой указатель ориентации, который одновременно показывает пилоту курс, воздушную скорость, скорость снижения или всплытия и множество другой соответствующей информации. Подобные реализации позволяют командам быстро и точно собирать информацию из нескольких источников, что высвобождает умственные способности, позволяющие сосредоточиться на других, более важных задачах.

Перед полетом военный летчик читает предполетный контрольный список. Контрольные списки гарантируют, что пилоты могут соблюдать рабочие процедуры и помогают вспомнить.

Контрольные списки

Использование контрольных списков до, во время и после полетов обеспечило сильное присутствие во всех типах авиации как средство управления ошибками и снижения вероятности риска. Контрольные списки строго регламентированы и состоят из протоколов и процедур для большинства действий, необходимых во время полета.[24] Цели контрольных списков включают «вспоминание, стандартизацию и регулирование процессов или методологий».[24] Использование контрольных списков в авиации стало отраслевым стандартом, и заполнение контрольных списков по памяти считается нарушением протокола и ошибкой пилота. Исследования показали, что увеличение количества ошибок в суждениях и когнитивной функции мозга, а также изменения в функция памяти Вот некоторые из последствий стресса и усталости.[25] Оба эти фактора неизбежны в сфере коммерческой авиации. Использование контрольных списков в аварийных ситуациях также способствует устранению неполадок и обратному изучению цепочки событий, которые могли привести к конкретному инциденту или аварии. Помимо контрольных списков, выпущенных регулирующими органами, такими как FAA или ИКАО, или контрольные списки, составленные производителями самолетов, у пилотов также есть личные контрольные списки качества, предназначенные для проверки их пригодности и способности управлять самолетом. Примером может служить Я В БЕЗОПАСНОСТИ контрольный список (болезнь, лекарства, стресс, алкоголь, усталость / еда, эмоции) и ряд других качественных оценок, которые пилоты могут выполнять до или во время полета для обеспечения безопасности самолета и пассажиров.[24] Эти контрольные списки, наряду с рядом других дублирующих элементов, интегрированных в большинство современных систем эксплуатации самолета, обеспечивают бдительность пилота и, в свою очередь, направлены на снижение риска ошибки пилота.

Известные примеры

Одним из самых известных примеров авиакатастрофы, вызванной ошибкой пилота, была авиакатастрофа в ночное время. Рейс 401 Eastern Air Lines около Майами, Флорида 29 декабря 1972 года. Капитан, старший помощник и бортинженер зациклились на неисправном фонаре шасси и не смогли понять, что один из членов экипажа случайно ударил рычаги управления полетом, изменив автопилот настройки от горизонтального полета до медленного спуска. Получив приказ УВД держаться над малонаселенным районом вдали от аэропорта, пока они занимаются проблемой (в результате, на земле было видно очень мало огней, которые могли бы служить внешним ориентиром), отвлеченный летный экипаж не заметил самолет потерял высоту, и самолет в конце концов врезался в землю Эверглейдс, погиб 101 из 176 пассажиров и членов экипажа. Последующие Национальный совет по безопасности на транспорте (NTSB) в отчете об инциденте обвинил летный экипаж в том, что он не следил за приборами самолета должным образом. Подробности инцидента теперь часто используются в качестве практического примера в учениях экипажей и авиадиспетчеров.

В 2004 г. Соединенные Штаты, ошибка пилота была указана как основная причина 78,6% смертельных исходов. авиация общего назначения авиационных происшествий и в качестве основной причины 75,5% авиационных происшествий общего назначения.[26] Для регулярный воздушный транспорт на ошибку пилота обычно приходится чуть более половины мировых аварий с известной причиной.[8]

  • 28 июля 1945 г. — Бомбардировщик B-25 ВВС США граница для Ньюарк аэропорт врезался в 79-й этаж Эмпайр Стейт Билдинг после того, как пилот заблудился в густом тумане, Манхэттен. Все три члена экипажа погибли, а также одиннадцать служащих в здании.
  • 24 декабря 1958 г. — BOAC Бристоль, Британия 312, регистрация Г-АОВД, разбился в результате управляемого полета на местности (CFIT ), недалеко от Винктона, Англия, во время испытательного полета. Крушение было вызвано сочетанием плохой погоды и неспособности обоих пилотов правильно прочитать показания высотомера. Первый офицер и двое других выжили в катастрофе.
  • 3 января 1961 г. — Рейс 311 Аэро разбился рядом Квевлакс, Финляндия. Все двадцать пять пассажиров погибли в результате аварии, которая стала самой смертоносной в истории Финляндии. Позднее расследование установило, что оба пилота были в состоянии алкогольного опьянения во время полета и могли быть прерваны пассажиром во время крушения.
  • 28 февраля 1966 г. — Американец космонавты Эллиот Си и Чарльз Бассетт были убиты, когда их Т-38 Talon врезался в здание в Lambert – St. Международный аэропорт Луи в непогоду. А НАСА расследование пришло к выводу, что See летел слишком низко при заходе на посадку.
  • 5 мая 1972 г. — Рейс 112 авиакомпании Alitalia врезался в гору Лонга после того, как летный экипаж не соблюдал процедуры захода на посадку, установленные УВД. Все 115 оккупантов погибли. Это самая страшная катастрофа с участием одного самолета в истории Италии.
  • 29 декабря 1972 г. — Рейс 401 Eastern Air Lines врезался в Флорида Эверглейдс после того, как летный экипаж не заметил выключения самолета автопилот, отвлекшись на собственные попытки решить проблему с шасси. Из 176 пассажиров 75 выжили.
  • 27 марта 1977 г. Катастрофа в аэропорту Тенерифе: старший KLM пилот не слышал, не понимал или не выполнял инструкции с диспетчерской вышки, в результате чего два Боинг 747 столкнуться на взлетно-посадочной полосе в Тенерифе. В результате самой смертоносной авиакатастрофы в истории погибло 583 человека.
  • 28 декабря 1978 г. — Рейс 173 United Airlines: а симулятор полета капитан-инструктор разрешил Дуглас DC-8 чтобы закончилось топливо при исследовании проблемы с шасси. Впоследствии United Airlines изменила свою политику, запретив «время инструктора симулятора» при расчете «общего времени полета» пилота. Считалось, что одной из причин аварии является то, что инструктор может контролировать количество топлива во время тренировки на симуляторе, чтобы оно никогда не кончалось.
  • 13 января 1982 г. — Рейс 90 авиакомпании Air Florida, а Боинг 737-200 с 79 пассажирами и экипажем, врезался в 14-я улица, мост и устремился в Река Потомак вскоре после взлета из Вашингтонский национальный аэропорт, погибло 75 пассажиров и членов экипажа, а также четыре автомобилиста на мосту. В отчете NTSB обвинили летный экипаж в неправильном использовании антиобледенение система.
  • 19 февраля 1985 г. — Экипаж Рейс 006 авиакомпании China Airlines потеряли контроль над своими Боинг 747SP над Тихий океан, после того, как загорелся двигатель №4. Самолет снизился на 30 000 футов за две с половиной минуты, прежде чем был восстановлен контроль. Погибших нет, но несколько раненых, самолет сильно поврежден.
  • 16 августа 1987 г. — Экипаж Рейс 255 Northwest Airlines пропустили свой контрольный список для такси и не смогли открыть закрылки и предкрылки самолета. Впоследствии Макдоннелл Дуглас MD-82 не набрал достаточной подъемной силы при взлете и врезался в землю, в результате чего погибли все, кроме одного из 155 человек на борту, а также два человека на земле. В единственный выживший была четырехлетняя девочка по имени Сесилия Чичан, которая была серьезно ранена.
  • 28 августа 1988 г. Катастрофа на авиашоу Рамштайн: член итальянской пилотажной группы неправильно оценил маневр, в результате чего произошло столкновение в воздухе. Три пилота и 67 зрителей на земле погибли.
  • 31 августа 1988 г. — Рейс 1141 авиакомпании Delta Air Lines разбился при взлете после того, как экипаж забыл развернуть закрылки для увеличения подъемной силы. Из 108 пассажиров и членов экипажа, находившихся на борту, четырнадцать погибли.
  • 8 января 1989 г. Авиакатастрофа в Кегворте, в левом двигателе нового Боинг 737-400, но летчики по ошибке заглушили правый двигатель. Левый двигатель в конечном итоге полностью отказал, и экипаж не смог перезапустить правый двигатель до того, как самолет разбился. Приборы на 737-400 отличались от более ранних моделей, но имитатор полета для новой модели не был доступен в Великобритании.
  • 3 сентября 1989 г. — Экипаж Вариг Рейс 254 совершили ряд ошибок, так что их Боинг 737 закончилось топливо в сотнях миль от курса над джунглями Амазонки. Тринадцать человек погибли в результате аварийной посадки.
  • 21 октября 1989 г. — Рейс 414 Тан-Сахса врезался в холм возле Международный аэропорт Тонконтин в Тегусигальпе, Гондурас, из-за неправильной процедуры посадки пилотом, погиб 131 из 146 пассажиров и членов экипажа.
  • 14 февраля 1990 г. — Рейс 605 авиакомпании Indian Airlines врезался в поле для гольфа недалеко от взлетно-посадочной полосы недалеко от аэропорта Индостан, Индия. Экипаж не смог подъехать после того, как по рации сообщили, насколько близко они были к земле. Самолет врезался в поле для гольфа и набережную, загорелся. Из 146 пассажиров самолета 92 погибли, включая оба экипажа. В результате аварии выжили 54 человека.
  • 24 ноября 1992 г. — Рейс 3943 авиакомпании China Southern Airlines вылетел из Гуанчжоу в Гуйлинь за 55 минут. Во время снижения в направлении Гуйлиня на высоте 7000 футов (2100 м) капитан попытался выровнять самолет, подняв нос, и автоматический дроссель самолета был задействован для снижения. Однако экипаж не заметил, что силовой рычаг № 2 был на холостом ходу, что привело к асимметричному состоянию. Самолет разбился при спуске в аэропорт Гуйлиня, в результате чего погибли все находившиеся на борту 141 человек.
  • 23 марта 1994 г. — Рейс 593 Аэрофлота, Airbus A310-300, разбился на пути к Гонконг. Капитан Ярослав Кудринский пригласил двоих своих детей в кабину и разрешил им сесть за штурвал, что противоречит правилам авиакомпании. Его пятнадцатилетний сын Эльдар Кудринский случайно отключил автопилот, в результате чего самолет накренился вправо перед погружением. Второй пилот слишком сильно завел самолет, из-за чего он заглох и начал вращаться. Пилоты в конце концов нашли самолет, но он врезался в лес, в результате чего погибли все 75 человек на борту.
  • 24 июня 1994 г. — B-52 аварии на базе ВВС Фэйрчайлд. Авария была в значительной степени связана с личностью и поведением Lt Col Артур «Бад» Холланд, командир, и отложенная реакция на более ранние инциденты с участием этого пилота. После прошлой истории подполковник Марк МакГихан, командир эскадрильи ВВС США, отказался разрешить кому-либо из членов своей эскадрильи лететь с Голландией, если он (МакГихан) также не был в самолете. Эта авария теперь используется в военной и гражданской авиации в качестве примера при обучении управлению ресурсами экипажа.
  • 30 июня 1994 г. — Рейс 129 Airbus Industrie, сертификационный испытательный полет Airbus A330-300, разбился в Тулуза-Бланьяк: аэропорт. При моделировании аварийной ситуации с остановкой двигателя сразу после взлета с экстремальным центр гравитации локации пилоты выбрали неправильные ручные настройки, из-за которых автопилот не мог удерживать самолет в воздухе, и к тому времени, когда капитан восстановил ручное управление, было уже слишком поздно. Самолет был разрушен, погибли летный экипаж, инженер-испытатель и четыре пассажира. Комиссия по расследованию пришла к выводу, что капитан был перегружен предыдущими летными испытаниями в тот день и не смог уделить достаточно времени предполетному инструктажу. В результате Airbus пришлось пересмотреть порядок действий в аварийной ситуации при неработающем двигателе.
  • 2 июля 1994 г. — Рейс 1016 USAir врезался в жилой дом из-за пространственной дезориентации. Двадцать пассажиров и экипаж погибли, самолет был уничтожен.
  • 20 декабря 1995 г. — Рейс 965 American Airlines, а Боинг 757-200 со 155 пассажирами и восемью членами экипажа вылетел из Майами примерно на два часа позже расписания в 1835 по восточному стандартному времени (EST). Следователи полагают, что незнание пилота современной техники, установленной в Boeing 757-200, могло сыграть свою роль. Пилоты не знали свое местонахождение относительно радиомаяка в Тулуа. Самолет был оборудован для передачи этой информации в электронном виде, но, согласно источникам, знакомым с расследованием, пилот, очевидно, не знал, как получить доступ к информации. Капитан ввел неверные координаты, и самолет врезался в горы, в результате чего погибли 159 из 163 человек на борту.
  • 8 мая 1997 г. — Рейс 3456 авиакомпании China Southern Airlines врезался в взлетно-посадочную полосу на Шэньчжэнь Хуантьян аэропорт во время второй попытки ухода на второй круг, в результате которой погибли 35 из 74 человек на борту. Экипаж по незнанию нарушил порядок посадки из-за плохой погоды.
  • 6 августа 1997 г. — Рейс 801 Korean Air, а Боинг 747-300, врезался в Нимиц-Хилл, в трех милях от Международный аэропорт Гуама, погибли 228 из 254 человек на борту. Неспособность капитана правильно выполнить неточный заход на посадку поспособствовала аварии. В NTSB сказал усталость пилота был возможным фактором.
  • 26 сентября 1997 г. — Гаруда Индонезия, рейс 152, Airbus A300, врезался в овраг, погибли все 234 человека на борту. В NTSC пришел к выводу, что авария произошла из-за того, что пилоты повернули самолет в неправильном направлении вместе с ошибкой УВД. Факторами, способствовавшими аварии, были названы низкая видимость и невозможность активации GPWS.
  • 12 октября 1997 — Певица Джон Денвер умер, когда его новоприобретенный Рутан Лонг-EZ Самодельный самолет упал в Тихий океан недалеко от Пасифик Гроув, Калифорния. NTSB сообщил, что Денвер потерял контроль над самолетом при попытке манипулировать рукояткой переключателя топлива, которая была помещена в недоступное положение изготовителем самолета. NTSB сослался на незнание Денвера конструкции самолета как причину крушения.
  • 16 февраля 1998 г. — Рейс 676 авиакомпании China Airlines пытался приземлиться в Международный аэропорт Чан Кайши но совершил уход на второй круг из-за плохих погодных условий. Однако летчики случайно отключили автопилот и не заметили этого в течение 11 секунд. Когда они это заметили, Airbus A300 вошел в стойло. Самолет врезался в шоссе и жилой район и взорвался, в результате чего погибли все находившиеся на борту 196 человек, а также семь человек на земле.
  • 16 июля 1999 г. — Джон Ф. Кеннеди-младший. умер когда его самолет, Пайпер Саратога, врезался в Атлантический океан от побережья Виноградник Марты, Массачусетс. В NTSB официально заявили, что авария была вызвана «неспособностью пилота сохранить контроль над своим самолетом во время ночного снижения над водой, что было результатом пространственная дезориентация «. Кеннеди не имел сертификата на IFR полет, но продолжал лететь после того, как погодные условия скрыли визуальные ориентиры.
  • 31 августа 1999 года — Lineas Aéreas Privadas Argentinas (LAPA) рейс 3142 разбился после попытки взлета с закрылками, в результате чего погибли 63 из 100 пассажиров самолета, а также два человека на земле.
  • 31 октября 2000 г. — Рейс 006 Singapore Airlines был Боинг 747-412 который взлетел не с той взлетно-посадочной полосы в тогдашнем международном аэропорту Чан Кайши. Он столкнулся со строительной техникой на взлетно-посадочной полосе, загорелся и погибли 83 из 179 пассажиров.
  • 12 ноября 2001 г. — Рейс 587 American Airlines столкнулся с сильной турбулентностью, и второй пилот слишком сильно нажал на педаль руля направления, поворачивая Airbus A300 из стороны в сторону. Чрезмерное напряжение привело к отказу руля. Самолет A300 развернулся и врезался в жилой район, разрушив пять домов и убив 265 человек. Включаемые факторы турбулентность в следе и подготовка пилотов.
  • 24 ноября 2001 г. — Рейс 3597 Crossair врезался в лес на подходе к ВПП 28 на Цюрих аэропорт. Это было вызвано тем, что капитан Лутц снизился ниже минимальной безопасной высоты 2400 футов на подходе к взлетно-посадочной полосе.
  • 15 апреля 2002 г. — Рейс 129 авиакомпании Air China, а Боинг 767-200, разбился рядом Пусан, Южная Корея погибли 128 из 166 человек на борту. Пилот и второй пилот летели слишком низко.
  • 25 октября 2002 г. — восемь человек, в том числе Сенатор США Пол Веллстон, погибли в аварии рядом с Эвелет, Миннесота. NTSB пришел к выводу, что «летный экипаж не контролировал и не поддерживал минимальную скорость».
  • 26 февраля 2004 — А Бук 200 несущий македонский Президент Борис Трайковский разбился, в результате чего погибли президент и восемь других пассажиров. Расследование крушения постановило, что авария была вызвана «процедурными ошибками экипажа» при заходе на посадку.
  • 3 января 2004 г. — Рейс 604 авиакомпании Flash Airlines нырнул в красное море вскоре после взлета погибли все 148 человек на борту. Капитан переживал головокружение и не заметил, что его контрольная колонка наклонена вправо. Boeing 737 терпел крен до тех пор, пока он больше не мог оставаться в воздухе. Однако отчет о расследовании был оспорен.
  • 14 августа 2005 г. — пилоты Рейс 522 авиакомпании Helios Airways потерял сознание, скорее всего, из-за гипоксия вызвано отказом переключить наддув кабины на «Авто» во время предполетной подготовки. В Боинг 737-300 разбился после того, как закончилось топливо, погибли все на борту.
  • 16 августа 2005 г. — Экипаж Рейс 708 West Caribbean Airways неосознанно (и опасно) снизил скорость Макдоннелл Дуглас MD-82, заставляя его войти в стойло. Ситуация была неправильно обработана экипажем: капитан полагал, что двигатели загорелись, в то время как первый офицер, который знал о сваливании, попытался исправить его. Самолет врезался в землю рядом с Machiques, Венесуэла, погибли все 160 человек на борту.
  • 3 мая 2006 г. — Рейс 967 Армавиа не справился с управлением и упал в Черное море при приближении к аэропорту Сочи-Адлер в России, в результате чего погибли все 113 человек на борту. Пилоты устали и летели в напряженных условиях. Их уровень стресса был превышен пределом, в результате чего они потеряли ситуационную осведомленность.
  • 27 августа 2006 г. — Рейс 5191 компании Comair не смог подняться в воздух и разбился на Голубая трава аэропорт, после того, как летный экипаж по ошибке попытался взлететь с вспомогательной взлетно-посадочной полосы, которая была намного короче предполагаемой взлетно-посадочной полосы. Все, кроме одного, из 50 человек на борту самолета погибли, в том числе 47 пассажиров. Единственным выжившим оказался первый офицер полета Джеймс Полхинке.
  • 1 января 2007 г. — Экипаж Рейс 574 авиакомпании Adam Air были озабочены неисправностью инерциальная система отсчета, что отвлекало их внимание от пилотажных приборов, позволяя не замечать увеличивающийся угол снижения и крена. Похоже, что они стали пространственно дезориентированными, пилоты не обнаружили и надлежащим образом остановили снижение достаточно быстро, чтобы предотвратить Потеря контроля. В результате самолет развалился в воздухе и упал в воду, в результате чего погибли все 102 человека на борту.[27]
  • 7 марта 2007 г. — Гаруда Индонезия, рейс 200: бедный Управление ресурсами экипажа а из-за того, что закрылки не были выпущены, самолет приземлился с «невообразимой» скоростью и после приземления вылетел за пределы взлетно-посадочной полосы. Из 140 оккупантов 22 погибли.
  • 17 июля 2007 г. — Рейс 3054 авиакомпании ТАМ: реверсор тяги на правом двигателе Airbus A320 заклинило. Хотя оба члена экипажа знали, что капитан использовал устаревшую процедуру торможения, и самолет пролетел мимо взлетно-посадочной полосы и врезался в здание, в результате чего погибли все 187 человек на борту, а также 12 человек на земле.
  • 20 августа 2008 г. — Экипаж Рейс 5022 Spanair не удалось раскрыть закрылки и предкрылки МД-82. Самолет потерпел крушение после взлета, в результате чего погибли 154 из 172 пассажиров и членов экипажа, находившихся на борту.
  • 12 февраля 2009 г. — Рейс 3407 авиакомпании Colgan Air (летает как Continental Connection) вошел в стойло и врезался в дом в Кларенс-центре, Нью-Йорк, из-за отсутствия ситуационной осведомленности о воздушной скорости капитаном и первым помощником, а также из-за неправильной реакции капитана на систему предупреждения о сваливании палки в самолете. . Все 49 человек на борту самолета погибли, а также один человек, находившийся в доме.
  • 1 июня 2009 г. — Рейс 447 авиакомпании Air France вошел в стойло и врезался в Атлантический океан следующий трубка Пито отказы и неправильные управляющие воздействия со стороны первый офицер. Все 216 пассажиров и двенадцать членов экипажа погибли.
  • 10 апреля 2010 г. — 2010 крушение Ту-154 ВВС Польши: при спуске в сторону России Смоленск Северный аэропорт, летный экипаж польского президентский самолет проигнорировал автоматические предупреждения и попытался приземлиться в сильном тумане. В Туполев Ту-154М спустился слишком низко и врезался в ближайший лес; все оккупанты были убиты, включая президента Польши Лех Качиньский, его жена Мария Качиньская, и многочисленные правительственные и военные чиновники.
  • 12 мая 2010 г. — Рейс 771 авиакомпании Afriqiyah Airways Самолет разбился примерно на 1200 метров (1300 ярдов; 3900 футов) от взлетно-посадочной полосы 09, за пределами периметра международного аэропорта Триполи, в результате чего погибли все, кроме одного, из 104 человек на борту. В единственный выживший был 9-летний мальчик по имени Рубен Ван Ассоу. 28 февраля 2013 года Управление гражданской авиации Ливии заявило, что причиной крушения стала ошибка пилота. Факторами, которые способствовали крушению, были отсутствие / недостаточное управление ресурсами экипажа, сенсорные иллюзии и действия первого офицера на бортовую рукоять самолета; Усталость также могла сыграть роль в аварии. В окончательном отчете указаны следующие причины: отсутствие у пилотов единого плана действий во время захода на посадку, последний заход на посадку продолжается ниже минимальной высоты принятия решения без получения визуального ориентира с земли; ненадлежащее применение входных сигналов управления полетом во время ухода на второй круг и после активации системы осведомленности и предупреждения о местности; и неспособность летного экипажа отслеживать и контролировать траекторию полета.
  • 22 мая 2010 г. — Рейс 812 авиакомпании Air India Express пролететь мимо взлетно-посадочной полосы на Мангалор аэропорт, погибло 158 человек. Самолет приземлился в 610 метрах (670 ярдов) от обычной точки приземления после крутого снижения. Записи CVR показали, что капитан спал и проснулся за несколько минут до приземления. Его недостаток бдительности заставил самолет приземлиться очень быстро и круто, и он вылетел за край взлетно-посадочной полосы.
  • 28 июля 2010 г. — капитан Рейс 202 Airblue запутался с ручкой управления курсом и подумал, что он выполнил правильное действие, чтобы повернуть самолет. Однако из-за того, что он не потянул ручку управления курсом, поворот не был выполнен. Самолет Airbus A321 сбился с пути и врезался в холмы Маргалла, в результате чего погибли все 152 человека на борту.
  • 20 июня 2011 г. — Рейс 9605 RusAir врезался в автостраду на последнем подходе к Петрозаводск аэропорт на западе Россия, после того как пьяный штурман предложил капитану приземлиться в сильном тумане. Лишь пятеро из 52 человек, находившихся на борту самолета, выжили в катастрофе.
  • 6 июля 2013 г. — Рейс 214 авиакомпании Asiana Airlines хвост ударился о дамбу незадолго до взлетно-посадочной полосы 28L на Международный аэропорт Сан-Франциско. Из 307 пассажиров и членов экипажа три человека погибли и 187 получили ранения, когда самолет съехал с взлетно-посадочной полосы. Следователи заявили, что авария была вызвана более низкой, чем обычно, скоростью захода на посадку и неправильной траекторией захода на посадку.
  • 23 июля 2014 г. — Рейс 222 авиакомпании TransAsia Airways задел деревья и врезался в шесть домов в жилом районе в деревне Сиси на острове Пэнху, Тайвань. Из 58 человек, находившихся на борту самолета, только десять человек выжили. Капитан был самоуверен в своем мастерстве и намеренно снизился и откатил самолет влево. Члены экипажа не осознавали, что они находились на опасно малой высоте и самолет собирался столкнуться с землей за две секунды до крушения.
  • 28 декабря 2014 г. — Рейс 8501 авиакомпании Indonesia AirAsia упал в Яванское море в результате аэродинамический срыв из-за ошибки пилота. Самолет превысил скороподъемность, намного превышающую эксплуатационные пределы. Все находившиеся на борту 155 пассажиров и 7 членов экипажа погибли.
  • 6 февраля 2015 г. — Рейс 235 авиакомпании TransAsia Airways: загорелся один из двигателей ATR 72. Поскольку самолеты могут летать только на одном двигателе, пилот затем выключает один из двигателей. Однако он случайно выключил двигатель, который работал нормально, и оставил самолет без мощности, после чего безуспешно пытался запустить оба двигателя. Затем самолет перерезал мост и рухнул в реку Килунг, когда пилот пытался уклониться от городской местности, в результате чего 43 из 58 находившихся на борту самолета погибли.

Смотрите также

  • Летное мастерство
  • Управляемый полет на местности
  • Экологические причины авиационного стресса
  • Человеческий фактор в авиационной безопасности
  • Человеческая надежность
  • Расстройство суточного биоритма в связи с дальним перелетом
  • Рейс 007 Korean Air Lines
  • Усталость пилота
  • Сенсорные иллюзии в авиации
  • Пространственная дезориентация
  • Стресс в авиационной отрасли
  • Управление угрозами и ошибками
  • Ошибка пользователя

использованная литература

  1. ^ «Бедствие в Тенерифе — 27 марта 1977 года: полезность модели швейцарского сыра и других основ причинно-следственных связей». Go Flight Medicine. Получено 13 октября 2014.
  2. ^ Справочник пилота по аэронавигационным знаниям (2016 г.). Министерство транспорта США. Федеральное управление гражданской авиации, Служба летных стандартов pdf.
  3. ^ Управление ошибками (OGHFA BN). Руководство оператора по человеческому фактору в авиации. Skybrary
  4. ^ Как именно понимать термин «случайная потеря корпуса» ?. Переполнение авиационного стека
  5. ^ а б «Справочник по управлению рисками» (PDF) (Изм. 1-е изд.). Федеральная авиационная администрация. Январь 2016. Глава 2. Человеческое поведение.. Получено 16 ноября 2018.
  6. ^ а б Справочный комитет по сельским и региональным делам и транспорту (май 2013 г.). «Расследование авиационных происшествий» (PDF). Правительство Австралии.
  7. ^ Расследование человеческой ошибки: инциденты, аварии и сложные системы. Издательство Ashgate. 2004 г. ISBN  0754641228.
  8. ^ а б «Статистика несчастных случаев». www.planecrashinfo.com. Получено 21 октября 2015.
  9. ^ Фойл, Д. К., и Хуи, Б. Л. (ред.). (2007). Моделирование деятельности человека в авиации. CRC Press.
  10. ^ а б Хельмрайх, Роберт Л. (18 марта 2000 г.). «Об управлении ошибками: уроки авиации». BMJ: Британский медицинский журнал. 320-7237 (7237): 781–785. Дои:10.1136 / bmj.320.7237.781. ЧВК  1117774. PMID  10720367.
  11. ^ а б Томас, Мэтью Дж. (2004). «Предикторы управления угрозами и ошибками: определение основных нетехнических навыков и их значение для проектирования систем обучения». Международный журнал авиационной психологии. 14 (2): 207–231. Дои:10.1207 / s15327108ijap1402_6.
  12. ^ а б c d е ж Эрл, Лори; Бейтс, Пол Р .; Мюррей, Патрик С .; Глендон, А. Ян; Крид, Питер А. (январь 2012 г.). «Разработка однопилотного аудита безопасности производства». Авиационная психология и прикладные человеческие факторы. 2 (2): 49–61. Дои:10.1027 / 2192-0923 / a000027. HDL:10072/49214. ISSN  2192-0923.
  13. ^ Ли, Гохуа; Бейкер, Сьюзан П .; Grabowski, Jurek G .; Ребок, Джордж У. (февраль 2001 г.). «Факторы, связанные с ошибкой пилота при авиакатастрофах». Авиация, космос и экологическая медицина. 72 (1): 52–58.
  14. ^ Stanhope, N .; Кроули-Мерфи, М. (1999). «Оценка сообщений о неблагоприятных инцидентах». Журнал оценки в клинической практике: 5–12.
  15. ^ а б Вигманн, Д. А., и Шаппелл, С. А. (2001). Человеческая ошибка перспективы в авиации. Международный журнал авиационной психологии, 11 (4), 341–357.
  16. ^ Стейси, Дэниел (15 января 2015 г.). «Пилоты говорят, что управление воздушным движением в Индонезии не изощренно». Журнал «Уолл Стрит. Проверено 26 января 2015 г.
  17. ^ а б Деккер, Сидней; Лундстрем, Йохан (май 2007 г.). «От управления угрозами и ошибками (TEM) к устойчивости». Журнал человеческого фактора и аэрокосмической безопасности. 260 (70): 1–10.
  18. ^ Маурино, Дэн (апрель 2005 г.). «Управление угрозами и ошибками (ТЕМ)». Канадский семинар по безопасности полетов (CASS); Программа безопасности полетов и человеческого фактора — ИКАО.
  19. ^ а б «Аудит безопасности полетов на линиях (LOSA)». SKYbrary. Получено 24 августа 2016.
  20. ^ а б c Майерс, Чарльз; Орндорф, Дениз (2013). «Управление ресурсами экипажа: больше не только для авиаторов». Журнал прикладных технологий обучения. 3 (3): 44–48.
  21. ^ Helmreich, Robert L .; Merritt, Ashleigh C .; Вильгельм, Джон А. (1999). «Эволюция обучения управлению ресурсами экипажа в коммерческой авиации». Международный журнал авиационной психологии. 9 (1): 19–32. Дои:10.1207 / s15327108ijap0901_2. PMID  11541445.
  22. ^ а б Салас, Эдуардо; Берк, Шон С.; Бауэрс, Клинт А .; Уилсон, Кэтрин А. (2001). «Командное обучение в небе: работает ли обучение по управлению ресурсами экипажа (CRM)?». Человеческие факторы. 43 (4): 641–674. Дои:10.1518/001872001775870386. ISSN  0018-7208.
  23. ^ а б c Чжоу, Чжун-Ди; Мадхаван, Дас; Функ, Кен (1996). «Исследования ошибок управления задачами кабины пилота». Международный журнал авиационной психологии. 6 (4): 307–320. Дои:10.1207 / s15327108ijap0604_1.
  24. ^ а б c Хейлз, Бриджет М .; Проновост, Питер Дж. (2006). «Контрольный список — инструмент для управления ошибками и производительности». Журнал интенсивной терапии (21): 231–235.
  25. ^ Cavanagh, Джеймс Ф .; Франк, Майкл Дж .; Аллен, Джон Дж. Б. (апрель 2010 г.). «Реакция на социальный стресс изменяет обучение, основанное на вознаграждении и наказании». Социальная когнитивная и аффективная нейробиология. 6 (3): 311–320. Дои:10.1093 / сканирование / nsq041. ЧВК  3110431. PMID  20453038.
  26. ^ «Отчет Джозефа Т. Нолла 2005 г.» (PDF). Архивировано из оригинал (PDF) 2 февраля 2007 г.. Получено 12 февраля 2007.
  27. ^ «Отчет о расследовании авиационных происшествий KNKT / 07.01 / 08.01.36» (PDF). Национальный комитет по безопасности на транспорте, Министерство транспорта Индонезии. 1 января 2007 г. Архивировано с оригинал (PDF) 28 июня 2011 г.. Получено 8 июн 2013. Отчет о расследовании авиационных происшествий Национального комитета по безопасности на транспорте Индонезии

По данным Межгосударственного авиационного комитета за 2018 год, в 11 странах, входящих в МАК, произошло 20 авиапроисшествий, связанных с человеческим фактором, и только четыре — из-за отказа техники. Но даже человеческий фактор почти всегда предполагает и другие слагаемые.

Чем руководствовались пилоты «Сухого»

Деятельность пилотов по управлению самолётом регламентируют не только федеральные законы и подзаконные акты, но и специальная инструкция, так называемое РЛЭ (FCOM) — руководство по лётной эксплуатации, в нашем случае RRJ-95 «Сухого Суперджета». Инструкция — служебный документ. В ней содержатся все технические характеристики воздушного судна, алгоритмы действия экипажа в штатных ситуациях. Нормы показателей, при которых должны осуществляться подготовка к взлёту, взлёт, посадка и другие стандартные эксплуатационные процедуры. И главное, чётко прописаны действия в аварийных ситуациях. Содержание документа является собственностью ЗАО «Гражданские самолёты Сухого» и не может быть использовано без согласия компании. Это указано прямо на обложке РЛЭ. Впрочем, этот ведомственный документ можно легко отыскать в свободном доступе на просторах Интернета.

Строгий регламент или импровизация?

Фото: © Следственный комитет РФ

Фото: © Следственный комитет РФ

Лайф попросил командира воздушного судна и автора телеграм-канала Flying Upside Down ответить, какая из версий катастрофы, по его мнению, наиболее вероятна.

Что касается причин воспламенения топлива и разрушения конструкции воздушного судна, то здесь всё очевидно. В процессе посадки было допущено четыре повторных отделения и превышение максимальной вертикальной скорости на касании. В случае, если пилоты испытывали проблемы с пилотированием самолёта по причине нарушения балансировки или управляемости, они должны были сообщить об этом. Этого сделано не было, поэтому распространённое мнение о сложности управления самолётом — лишь домыслы.

Лайф: По правилам, посадку проводит второй пилот. Задача командира воздушного судна — принимать решения и контролировать действия напарника. Кто управлял лайнером при посадке — КВС Денис Евдокимов или помощник?

— Думаю, в подобной ситуации ни один КВС не доверит выполнение посадки второму пилоту.

Лайф: Четыре повторных отделения и превышение максимальной скорости — это ошибка экипажа?

— Безусловно, да. Думаю, что истерия «SuperJet — г…но» не имеет под собой никаких оснований, поскольку до момента жёсткой посадки самолёт прекрасно летел, а значит, обеспечивал безопасность экипажа и пассажиров.

Заслуженный лётчик-испытатель Герой России Магомед Толбоев специально для Лайфа проанализировал действия пилотов.

— Лётчики на момент посадки уже не управляли самолётом, у них началась паника. Самолёт садился на слишком большой скорости, и они его искусственно ударили, просто не знали, что с ним делать.

Должностные инструкции устанавливают правила, по которым, например, главным пилотом может стать лицо, имеющее высшее профессиональное (лётное) образование и стаж работы на командно-лётных должностях не менее трёх лет, а вторым пилотом — лицо, имеющее высшее профессиональное (лётное) образование и стаж лётной работы не менее двух лет.

Командир злополучного «суперджета» Денис Евдокимов, 1976 года рождения, окончил Балашовское лётное училище в 1998-м. После выпуска проходил службу в частях авиации Пограничных войск ФСБ. Летал на Ил-76. В целом налетал 6800 часов, из них на «Сухом» — 1400 часов.

Второй пилот «суперджета», Максим Кузнецов, 1983 года рождения, окончил Ульяновский филиал Сасовского лётного училища в 2016 году и сразу устроился в «Аэрофлот». Никаких нареканий по работе у второго пилота не было.

Ранее Лайф рассказывал о человеческом факторе в авиации, когда жертвами неверно принятого решения экипажа Boeing 737 чуть было не стали 170 человек. Тогда в Сочинском аэропорту самолёт выкатился за пределы ВПП, а впоследствии загорелся. Так что же мешает нынешним пилотам действовать в соответствии с регламентом, держать себя в руках и принимать верные решения в критической ситуации?

Необкатанные джеты. Недоученные люди

Фото: © AP Photo / Marina Lystseva

Фото: © AP Photo / Marina Lystseva

На специализированных авиафорумах действующие капитаны воздушных судов описывают джет как абсолютно безопасный и ни в чём не уступающий другим самолёт. Круче Airbus и Boeing, но недоработанный. Лётчики жалуются, что инженеров и техников по обслуживанию SSJ тоже не хватает. Недоработки по «детским болезням» самолёта мелкие — но много. Недостаточный налёт у джетов может быть не только из-за длительного техобслуживания, но и из-за нехватки главных пилотов. А пилоты проходят подготовку для джетов на тренажёре.

По мнению лётчика-испытателя Магомеда Толбоева, тренажёр пилоту даёт мало и даже может навредить. Теряется реальность, связь с землёй и небом. Опасность ещё и в том, что снижается ответственность, ведь симулятор позволяет разбиться сколько угодно раз, и, когда такой лётчик пересаживается на настоящую технику, психика пилота воспринимает реальность как детскую игру.

На форумах, посвящённых воздушному судну «Сухой», пилоты отмечают, что переучиться, например, на 777-й (имеется в виду Boeing. — Прим. Лайфа) без командирского опыта и общего налёта в размере 4000 часов невозможно.

Лётчик-испытатель Толбоев прокомментировал Лайфу подготовку молодых пилотов: «Не знаю, как в «Аэрофлоте», это уважаемая авиакомпания, но всё можно за деньги. Откуда, например, в 23 года 27 000 налёта? Приписывают нули. Толбоев отмечает и разницу в подготовке пилотов: «Раньше, в СССР, до такого уровня самолёта, как Ту-134 (примерный уровень нынешнего джета. — Прим. Лайфа), ввод лётчика в строй составлял 8 лет. Сейчас — 8 месяцев«.

Портрет российского лётчика на фоне всех проблем

Фото: © flickr / SuperJet International

Пилоты и авиаэксперты сходятся в одном — проблем у Росавиации немало. Дефицит пилотов гражданской авиации, госмонополия на обучение, хотя уровень государственного образования, мягко говоря, хромает. Как лётчик научится летать, если отсутствует техника? В Ульяновском лётном институте, например, отрабатывают навыки пилотирования на западных маленьких самолётах. Больших просто нет. И закупаются в основном западные самолёты. Самые опытные пилоты уходят к иностранцам, которые переманивают большими деньгами именно рейтинговых лётчиков.

— Как я вижу современного лётчика… Стоит самолёт, стоит пилот с компьютером. Лётчик ничего не знает о самолёте перед ним: ни технические характеристики, ни практику. Думает — ничего страшного, спрошу у компьютера. Сколько весит «Сухой джет«? Компьютер отвечает. Это как внук деду телефон купил и на кнопки научил тыкать, но ни знаний, ни понятия процессов нет. Лётчик сейчас — не лётчик, а обыкновенный оператор. Вывод — так можно из крупных технических вузов взять айтишников, посадить в кабину самолёта. Самолёт сам рулит, сам летает. Зачем тратить такие деньги на обучение, если разницы нет, — раздражённо пояснил Лайфу лётчик-испытатель Толбоев.

Следствие рассматривает ошибку пилота в качестве основной версии, к тому же склоняются и эксперты. Но трагедия явно сложилась ещё из пары реалий: недоработанность нового самолёта, помноженная на все проблемы российской авиации.

Понравилась статья? Поделить с друзьями:
  • Управление областями сети ошибками конфигурацией доступом производительностью безопасностью
  • Управление методом проб и ошибок
  • Управление компьютером управление дисками ошибки
  • Управление дисками произошла непредвиденная ошибка
  • Управление дисками ошибка оснастки диспетчера дисков