Любые человеческие действия, которые содержат в себе риск развития аварийной ситуации, считаются недопустимыми, даже если альтернатива противоречит логике, здравому смыслу и соображениям пользы. В спорных случаях действует принцип: опасно все, безопасность чего не доказана.

Этот подход, применяющийся на всех стадиях создания и функционирования системы, является одним из механизмов технологического барьерного торможения.

Начнем с простого примера. Понятно, что компьютер и Интернет позволяют бухгалтерам, экономистам, налоговикам, чиновникам экономить массу времени. Но в постиндустриальной действительности внедрение в делопроизводство компьютеров непременно сопровождается резким возрастанием требуемых объемов отчетности. В результате, несмотря на создание высокоэффективной системы информационного оборота, скорость этого оборота уменьшилась, а уровень загрузки специалистов возрос. Это и есть «парадокс бухгалтера».

В технике – все то же самое, только гораздо хуже. Современный самолет создается в шесть – десять раз медленнее, нежели его прототип в 1960-е годы и, как уже говорилось, адекватного роста эксплутационных характеристик при этом не наблюдается, в том числе – ив отношении реальной безопасности. Но требований к безопасности стало неизмеримо больше, и всем этим требованиям проектируемый самолет должен удовлетворять. То есть современный «долгострой» возникает вследствие необходимости учитывать все большее и большее число виртуальных обременений.

В теории постиндустриальная техническая система способна противостоять самым невероятным вызовам[14]. Слово «невероятный» здесь ключевое: система проектируется безопасной в отношении угроз, которые в реальной жизни не встречаются и встретиться не могут. Понятно, что таких угроз можно придумать сколько угодно. Необходимость парировать их «съедает» все возможности, предоставляемые современными компьютерами, информационными сетями, практикой международного аутсорсинга, автоматическими системами проектирования, математическим моделированием.


Фантаст: Это исследовалось у 77. Вале в «Гибели 31-го отдела». Тут дело не в гнусных компьютерах, добавивших нам возможностей по производству отчетов, а в том, что людей надо чем-то занимать, а в период прогрессирующей автоматизации они не нужны…

Романтик: Отлично, и пусть, значится, друг друга контролируют, проверяют и т. д. Все деятельность?

Фантаст: Ну, примерно так… имитация деятельности налицо, и все заняты.

Романтик: А занять их развитием?

Фантаст: Фантастика у нас в другом отделе…

Романтик: Но есть же сферы мышления, философии, изменения в принципах, подходах и пределах, по мне, так пусть будет много автоматов, много ответственных инженеров, которые этими автоматами командуют, зная законы больших систем, и, в общем, те, кто могут в крайнем случае взять ручное управление… ну и люди, которым открыта дорога к вершинам человеческого знания и культуры…

Фантаст: Тебя не нашли санитары, я понял, я не выдам… пойди, предложи менеджеру отстать от инженера, лишиться статуса в финансовом пузыре и заняться философией за пайку…

Катастрофы индустриальные и постиндустриальные

Различный подход к безопасности порождает совершенно разные механизмы развития катастрофических ситуаций в индустриальном и постиндустриальном (барьерном) мире.

Основной причиной индустриальных катастроф является «человеческая ошибка», причем речь идет о грубых, непростительных, недопустимых промахах. На уровне:

– Где рядовой Джонс?

– Последний раз я его видел, когда он закурил на посту у порохового склада, сэр.

– Но это же последнее, что он мог сделать!