Антропогенный глобальный катастрофический риск

Глобальный катастрофический риск — это гипотетическое будущее событие, которое может нанести ущерб благосостоянию людей в глобальном масштабе, даже разрушить или разрушить современную цивилизацию. Событие, которое может вызвать человеческое исчезновение или постоянно и резко сокращать потенциал человечества, называется экзистенциальным риском.

Потенциальные глобальные катастрофические риски включают антропогенные риски, вызванные людьми (технология, управление, изменение климата), а также природные или внешние риски. Примерами технологических рисков являются враждебный искусственный интеллект и разрушающая биотехнология или нанотехнология. Недостаточное или злостное глобальное управление создает риски в социальной и политической области, такие как глобальная война, включая ядерный холокост, биотерроризм с использованием генетически модифицированных организмов, кибертерроризм, разрушающий критическую инфраструктуру, такую ​​как электрическая сеть; или неспособность справиться с естественной пандемией. Проблемы и риски в области управления земными системами включают в себя глобальное потепление, деградацию окружающей среды, в том числе исчезновение видов, голод в результате несправедливого распределения ресурсов, перенаселенность людей, неурожаи и неустойчивое сельское хозяйство. Примерами неантропогенных рисков являются событие воздействия астероидов, сверхчеловеческое извержение, летальный гамма-всплеск, геомагнитная буря, разрушающая электронное оборудование, естественное долгосрочное изменение климата или враждебная внеземная жизнь.

классификации

Глобальный катастрофический и экзистенциальный
Философ Ник Бостром классифицирует риски в зависимости от их масштаба и интенсивности. «Глобальный катастрофический риск» — это любой риск, который, по крайней мере, «глобальный» по охвату, и не является субъективно «незаметным» по интенсивности. Те, которые по крайней мере «транс-поколений» (затрагивающие все будущие поколения) по охвату и «терминальному» по интенсивности, классифицируются как экзистенциальные риски. В то время как глобальный катастрофический риск может убить подавляющее большинство жизни на Земле, человечество может по-прежнему потенциально восстановиться. С другой стороны, экзистенциальный риск — это тот, который либо уничтожает человечество (и, предположительно, все, кроме самых элементарных видов нечеловеческих форм жизни и / или жизни растений) полностью или, по крайней мере, предотвращает любые шансы восстановления цивилизации. Бостром считает, что экзистенциальные риски будут гораздо более значительными.

Аналогичным образом, в «Катастрофе: риск и реакция» Ричард Познер выделяет и объединяет события, которые приводят к «полному свержению или разрушению» на глобальном, а не на местном или региональном уровне. Познер выделяет такие события, которые заслуживают особого внимания на принципах затрат и выгод, поскольку они могут прямо или косвенно поставить под угрозу выживание человечества в целом. События Познера включают воздействие метеоров, безудержное глобальное потепление, серое гвоздь, биотерроризм и несчастные случаи ускорителей частиц.

Исследователи испытывают трудности в изучении почти человеческого исчезновения непосредственно, поскольку человечество никогда не было уничтожено раньше. Хотя это не означает, что этого не будет в будущем, это создает трудности моделирования, связанные с экзистенциальными рисками, отчасти из-за смещения выживших.

Другие классификации
Бостром определяет четыре типа экзистенциального риска. «Взрывы» — это внезапные катастрофы, которые могут быть случайными или преднамеренными. Он считает, что наиболее вероятными источниками взломов являются злонамеренное использование нанотехнологий, ядерной войны и возможность того, что вселенная будет симуляцией, которая закончится. «Кранч» — это сценарии, в которых человечество выживает, но цивилизация медленно разрушается. Наиболее вероятными причинами этого, по его мнению, являются истощение природных ресурсов, стабильное глобальное правительство, которое препятствует технологическому прогрессу или дизеническому давлению, которое снижает средний уровень интеллекта. «Шрайки» — нежелательные фьючерсы. Например, если один ум усиливает свои силы, сливаясь с компьютером, он может доминировать в человеческой цивилизации. Бостром полагает, что этот сценарий, скорее всего, сопровождается ошибочной суперинтеллектом и репрессивным тоталитарным режимом. «Whimpers» — это постепенное снижение человеческой цивилизации или текущих ценностей. Он считает, что наиболее вероятной причиной будет эволюция, изменяющая моральные предпочтения, а затем внеземное вторжение.

Моральное значение экзистенциального риска

Некоторые ученые решительно высказались за сокращение экзистенциального риска на том основании, что это очень выгодно для будущих поколений. Дерек Парфит утверждает, что исчезновение было бы большой потерей, потому что наши потомки могли бы выжить в течение четырех миллиардов лет до того, как расширение Солнца сделает Землю непригодной для жизни. Ник Бостром утверждает, что в колонизирующем пространстве есть еще больший потенциал. Если будущие люди колонизируют пространство, они могут поддерживать очень большое количество людей на других планетах, которые могут длиться триллионы лет. Таким образом, уменьшение экзистенциального риска хотя бы небольшой суммой окажет очень значительное влияние на ожидаемое число людей, которые будут существовать в будущем.

Экспоненциальное дисконтирование может сделать эти будущие выгоды намного менее значительными. Однако Джейсон Матени утверждал, что такое дисконтирование неуместно при оценке стоимости экзистенциального снижения риска.

Некоторые экономисты обсудили важность глобальных катастрофических рисков, хотя и не экзистенциальных рисков. Мартин Вайтцман утверждает, что большая часть ожидаемого экономического ущерба от изменения климата может исходить из небольшой вероятности того, что потепление значительно превышает ожидаемые средние ожидания, что приводит к катастрофическому ущербу. Ричард Познер утверждал, что мы делаем слишком мало, в общем, о небольших, трудно поддающихся оценке рисках крупномасштабных катастроф.

Многочисленные когнитивные предубеждения могут влиять на мнение людей о важности экзистенциальных рисков, в том числе нечувствительности к области, гиперболическом дисконтировании, эвристике доступности, ошибочности соединения, эвристическом влиянии и эффекте самоуверенности.

Нечувствительность к шкале влияет на то, насколько плохими людьми считаются вымирание человеческой расы. Например, когда люди мотивированы на то, чтобы пожертвовать деньги на альтруистические причины, количество, которое они готовы дать, не увеличивается линейно с масштабом проблемы: люди примерно так же обеспокоены тем, что 200 000 птиц застревают в масле, так как их около 2000. Аналогичным образом, люди часто больше озабочены угрозами отдельным лицам, чем более крупным группам.

Есть экономические причины, которые могут объяснить, почему так мало усилий идет на экзистенциальное снижение риска. Это глобальное благо, поэтому, даже если большая нация уменьшит его, эта нация будет пользоваться лишь небольшой долей выгоды от этого. Кроме того, подавляющее большинство преимуществ могут быть отданы будущим поколениям, и хотя эти квадриллионы будущих людей теоретически, возможно, готовы заплатить огромные суммы за экзистенциальное снижение риска, никакого механизма такой транзакции не существует.

Потенциальные источники риска
Некоторые источники катастрофического риска являются естественными, такими как воздействие метеоров или супервулканы. Некоторые из них вызвали массовые изгнания в прошлом. С другой стороны, некоторые риски являются антропогенными, такими как глобальное потепление, деградация окружающей среды, инженерные пандемии и ядерная война.

антропогенный
Кембриджский проект в Кембриджском университете гласит, что «самые большие угрозы» для человеческого рода являются антропогенными; это искусственный интеллект, глобальное потепление, ядерная война и биогеология изгоев. Институт будущего человечества также утверждает, что человеческое вымирание, скорее всего, связано с антропогенными причинами, чем с естественными причинами.

Искусственный интеллект
Было высказано предположение, что обучение компьютерам, которые быстро становятся сверхразумными, может привести к непредвиденным действиям или что роботы будут конкурировать с человечеством (один технологический сингулярный сценарий). Из-за его исключительного планирования и организационных возможностей и ряда новых технологий, которые он мог бы разработать, возможно, что первая земная суперинтеллекция появится быстро и бесподобно и непревзойденно: возможно, она сможет добиться почти любых возможных результатов и будет способный практически лишить любую попытку, которая угрожала предотвращению ее достижения своих целей. Это могло бы устранить, уничтожив, если бы оно выбрало, любые другие сложные соперничающие интеллекты; в качестве альтернативы он может манипулировать или убеждать их изменить свое поведение по отношению к его собственным интересам, или это может просто помешать их попыткам вмешательства. В книге Бостром, Superintelligence: Paths, Dangers, Strategies, он определяет это как проблему управления. Физик Стивен Хокинг, основатель Microsoft Билл Гейтс и основатель SpaceX Элон Муск, повторили эти опасения, теоретически предположив, что это может «означать конец человеческой расы».

В 2009 году Ассоциация по улучшению искусственного интеллекта (AAAI) провела конференцию для обсуждения вопроса о том, смогут ли компьютеры и роботы получить какую-либо автономию и насколько эти способности могут представлять угрозу или опасность. Они отметили, что некоторые роботы приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники энергии и возможность самостоятельно выбирать цели для атаки оружием. Они также отметили, что некоторые компьютерные вирусы могут уклониться от ликвидации и достигли «интеллекта тараканов». Они отметили, что самосознание, как показано в научной фантастике, вероятно, маловероятно, но что существуют другие потенциальные опасности и подводные камни. Различные источники средств массовой информации и научные группы отметили отдельные тенденции в разных областях, которые могут в совокупности привести к более широким функциям и автономии роботов и которые представляют собой некоторые неотъемлемые проблемы.

Опрос экспертов ИИ подсчитал, что вероятность машинного обучения на человеческом уровне, имеющего «крайне плохое (например, человеческое исчезновение)» долгосрочное воздействие на человечество, составляет 5%. Опрос Института Будущего Человечества оценил 5% -ную вероятность исчезновения суперинтеллектом к 2100 году. Элиезер Юдковский считает, что риски от искусственного интеллекта сложнее прогнозировать, чем любые другие известные риски из-за предвзятости от антропоморфизма. Поскольку люди основывают свои суждения об искусственном интеллекте на собственном опыте, он утверждает, что они недооценивают потенциальную силу ИИ.

биотехнология
Биотехнология может представлять собой глобальный катастрофический риск в виде биоинженерных организмов (вирусов, бактерий, грибов, растений или животных). Во многих случаях организм будет патогеном людей, скота, сельскохозяйственных культур или других организмов, от которых мы зависим (например, опылители или кишечные бактерии). Однако любой организм, способный катастрофически нарушать функции экосистемы, например высококонкурентные сорняки, превосходящие основные культуры, представляет собой риск биотехнологии.

Катастрофа биотехнологии может быть вызвана случайным выпуском генетически модифицированного организма, выходящего из контролируемых сред, плановым выпуском такого организма, который затем оказывается непредвиденным и катастрофическим взаимодействием с основными природными или агроэкосистемами или путем преднамеренного использования биологических агентов в области биологической войны, нападений с использованием биотерроризма. Патогены могут быть преднамеренно или непреднамеренно генетически модифицированы для изменения вирулентности и других характеристик. Например, группа австралийских исследователей непреднамеренно изменила характеристики вируса мышиной оспы, пытаясь развить вирус для стерилизации грызунов. Модифицированный вирус стал смертельно опасным даже у вакцинированных и естественно устойчивых мышей. Технологические средства генетического изменения характеристик вируса, скорее всего, станут более доступными в будущем, если их не будут правильно регулировать.

Террористические применения биотехнологии исторически были нечастыми. В какой степени это связано с отсутствием возможностей или мотивацией, не разрешается. Однако, учитывая текущее развитие, в будущем ожидается больше риска от новых, спроектированных патогенов. Экспоненциальный рост наблюдался в секторе биотехнологий, и Noun и Chyba прогнозируют, что это приведет к значительному увеличению биотехнологических возможностей в ближайшие десятилетия. Они утверждают, что риски от биологической войны и биотерроризма отличаются от ядерных и химических угроз, потому что биологические патогены легче производить массовое производство, и их производство трудно контролировать (тем более, что технологические возможности становятся доступными даже для отдельных пользователей). Опрос Института Будущего Человечества оценил 2% -ную вероятность вымирания из инженерных пандемий к 2100 году.

Существительное и Чыба предлагают три категории мер по снижению рисков от биотехнологий и природных пандемий: регулирование или предотвращение потенциально опасных исследований, улучшение распознавания вспышек и создание объектов для смягчения вспышек болезней (например, более качественные и / или более широко распространенные вакцины).

Кибератака
Cyberattacks могут уничтожить все, от персональных данных до электрических сетей. Кристин Петерсон, соучредитель и бывший президент Института Форсайт, считает, что кибератака на электрических сетях может стать катастрофическим риском.

Глобальное потепление
Глобальное потепление относится к потеплению, вызванному технологией человека с 19-го века или ранее. Прогнозы будущего изменения климата предполагают дальнейшее глобальное потепление, повышение уровня моря и увеличение частоты и тяжести некоторых экстремальных погодных явлений и связанных с погодой бедствий. Последствия глобального потепления включают потерю биоразнообразия, стресс к существующим системам производства продуктов питания, увеличение распространения известных инфекционных заболеваний, таких как малярия, и быстрая мутация микроорганизмов. В ноябре 2017 года заявление 15 364 ученых из 184 стран указало, что увеличение количества парниковых газов от использования ископаемых видов топлива, рост населения, обезлесение и чрезмерное использование земли для сельскохозяйственного производства, в частности, путем выращивания жвачных животных для потребления мяса, которые прогнозируют увеличение человеческих страданий в ближайшие десятилетия.

Экологическая катастрофа
Экологическая или экологическая катастрофа, такая как разрушение мирового урожая и крах экосистемных услуг, может быть вызвана нынешними тенденциями перенаселения, экономического развития и не устойчивого сельского хозяйства. Большинство сценариев окружающей среды включают в себя одно или несколько из следующих событий: голоценовое вымирание, нехватка воды, которая может привести к тому, что примерно половина населения Земли окажется без безопасной питьевой воды, упадка опылителей, чрезмерного промысла, массового обезлесения, опустынивания, изменения климата или массивного эпизоды загрязнения воды. Обнаруженная в начале XXI века угроза в этом направлении является расстройством коллапса колонии, феноменом, который может предвидеть неизбежное исчезновение западной пчелы. Поскольку пчела играет жизненно важную роль в опылении, ее вымирание серьезно нарушит пищевую цепь.

В опубликованном в октябре 2017 г. докладе, опубликованном в The Lancet, говорится, что токсичные воздух, вода, почвы и рабочие места коллективно отвечают за 9 миллионов смертей во всем мире в 2015 году, особенно от загрязнения воздуха, которое было связано с смертностью за счет повышения восприимчивости к неинфекционным заболеваниям, таких как болезни сердца, инсульта и рака легких. В докладе было предупреждено, что кризис загрязнения превышает «оговорку о количестве загрязнения, которое может переносить Земля» и «угрожает продолжению выживания человеческих обществ».

Исчерпание минеральных ресурсов
Румынский американский экономист Николас Джорджеску-Роэген, прародитель в экономике и основатель парадигмы экологической экономики, утверждал, что пропускная способность Земли, то есть способность Земли поддерживать человеческое население и уровни потребления, неизбежно будет уменьшаться в будущем поскольку конечный запас минеральных ресурсов Земли в настоящее время извлекается и используется; и, следовательно, что мировая экономика в целом движется в направлении неизбежного будущего краха, ведущего к гибели самой человеческой цивилизации. 303 Экологический экономист и теоретик-теоретик Герман Дали, ученик Жоржеску-Роэгена, предложил тот же аргумент, утверждая, что «… все, что мы можем сделать, — это не тратить ограниченную способность творения поддерживать настоящую и будущую жизнь [на Земле]».: 370

С тех пор, как Джорджеску-Роэген и Дали опубликовали эти взгляды, различные ученые в этой области обсуждают экзистенциальную невозможность равномерного распределения конечного запаса полезных ископаемых Земли среди неизвестного числа нынешних и будущих поколений. Это число поколений, вероятно, останется нам неизвестным, так как мало известно заранее, когда или когда человечество в конце концов столкнется с исчезновением. По сути, любое возможное межвременное распределение запасов неизбежно закончится всеобщим экономическим спадом в какой-то будущей точке. 253-256:165:168-171:150-153:106-109:546-549:142-145

Экспериментальная технология аварии
Ник Бостром предположил, что в поисках знаний человечество может непреднамеренно создать устройство, которое может уничтожить Землю и Солнечную систему. Исследования ядерной физики и физики высоких энергий могут создать необычные условия с катастрофическими последствиями. Например, ученые обеспокоены тем, что первый ядерный тест может воспламенить атмосферу. В последнее время другие обеспокоены тем, что RHIC или Большой адронный коллайдер могут начать глобальную катастрофу с цепной реакцией, связанную с черными дырами, странностями или ложными вакуумными состояниями. Эти конкретные проблемы были опровергнуты, но общая проблема остается.

Биотехнология может привести к созданию пандемии, химическая война может быть доведена до крайности, нанотехнология может привести к серой слизи, в которой самореплицирующие роботы, не контролирующие самоконтроль, потребляют все живое вещество на земле, строя больше из них — как в случаев, преднамеренно или случайно.

Нанотехнологии
Многие наноразмерные технологии находятся в разработке или в настоящее время используются. Единственный, который, по-видимому, представляет значительный глобальный катастрофический риск, — это молекулярное производство, метод, который позволил бы строить сложные структуры с атомной точностью. Молекулярное производство требует значительных успехов в области нанотехнологий, но как только достигнутые успехи могут производить высокотехнологичные продукты с низкими издержками и в больших количествах в нанофакторах рабочих мест. Когда нанофактории получают способность производить другие нанофабрики, производство может быть ограничено только относительно многочисленными факторами, такими как входные материалы, энергия и программное обеспечение.

Молекулярное производство можно использовать для дешевого производства, среди многих других продуктов, высокотехнологичного, долговечного оружия. Будучи оснащенными компактными компьютерами и моторами, они могут быть более автономными и иметь большой диапазон возможностей.

Крис Феникс и Трейдер классифицируют катастрофические риски, связанные с нанотехнологиями, на три категории:

От расширения разработки других технологий, таких как ИИ и биотехнология.
Обеспечивая массовое производство потенциально опасных продуктов, которые вызывают динамику риска (например, гонки вооружений) в зависимости от того, как они используются.
От неконтролируемых процессов самовоспроизводства с разрушительными эффектами.

Некоторые исследователи заявляют, что основная часть риска от нанотехнологий связана с потенциалом, который может привести к войне, гонкам вооружений и разрушительному глобальному правительству. Было высказано несколько причин, почему доступность нанотехнического оружия может со значительной вероятностью привести к неустойчивым гонкам вооружений (по сравнению, например, с гонками ядерных вооружений):

У большого количества игроков может возникнуть соблазн войти в гонку, так как порог для этого низкий;
Способность создавать оружие с молекулярным производством будет дешевой и легко спрятаться;
Поэтому отсутствие понимания возможностей других сторон может побудить игроков проявлять осторожность или начать упреждающие удары;
Молекулярное производство может снизить зависимость от международной торговли, потенциального фактора, способствующего миру;
Войны агрессии могут представлять меньшую экономическую угрозу для агрессора, поскольку производство дешево, и люди могут не понадобиться на поле битвы.
Поскольку саморегулирование со стороны всех государственных и негосударственных субъектов представляется сложным, меры по смягчению связанных с войной рисков в основном были предложены в области международного сотрудничества. Международная инфраструктура может быть расширена, придавая больше суверенитета международному уровню. Это может помочь скоординировать усилия по контролю над вооружениями. Также могут быть разработаны международные учреждения, специально предназначенные для нанотехнологий (возможно, аналогично Международному агентству по атомной энергии МАГАТЭ) или общий контроль над вооружениями. Можно также совместно осуществлять дифференцированный технический прогресс в области защитных технологий, политику, которой обычно должны пользоваться игроки. Центр ответственной нанотехнологии также предлагает некоторые технические ограничения. Повышение прозрачности в отношении технологических возможностей может стать еще одним важным фактором, способствующим контролю над вооружениями.

Серый goo — еще один катастрофический сценарий, который был предложен Эриком Дрекслером в его книге 1986 года «Двигатели творения» Эрика Дрекслера и был темой в основных средствах массовой информации и художественной литературе. Этот сценарий включает в себя крошечные самовоспроизводящиеся роботы, которые потребляют всю биосферу, используя ее как источник энергии и строительных блоков. В настоящее время, однако, эксперты по нанотехнологиям, в том числе Дрекслер, дискредитируют сценарий. По словам Феникса, «так называемый серый слизь может быть только продуктом преднамеренного и сложного инженерного процесса, а не несчастного случая».

Война и массовое уничтожение
Наиболее часто рассматриваемые сценарии — это ядерные войны и устройства конца света. Хотя вероятность ядерной войны в год тонкая, профессор Мартин Хеллман описал ее как неизбежную в долгосрочной перспективе; если вероятность не приблизится к нулю, неизбежно наступит день, когда удача цивилизации закончится. Во время кубинского ракетного кризиса президент США Джон Ф. Кеннеди оценил шансы ядерной войны «где-то между одним из трех и даже». Соединенные Штаты и Россия имеют объединенный арсенал из 14 700 ядерных вооружений, и по всему миру насчитывается 15 700 ядерных боеприпасов. Помимо ядерных, другие военные угрозы для человечества включают биологическую войну (BW). Напротив, химическая война, способная создавать многочисленные локальные катастрофы, вряд ли создаст глобальный характер.

Ядерная война может привести к беспрецедентным жертвам человеческой смерти и разрушению среды обитания. Детонация большого количества ядерного оружия будет иметь непосредственное, краткосрочное и долгосрочное воздействие на климат, вызывая холодную погоду и уменьшенный солнечный свет и фотосинтез, которые могут вызвать значительные потрясения в развитых цивилизациях. Однако, хотя популярное восприятие иногда воспринимает ядерную войну как «конец света», эксперты приписывают низкую вероятность исчезновения человека с ядерной войны. В 1982 году Брайан Мартин предположил, что ядерный обмен между США и СССР может убить 400-450 миллионов человек, в основном в Соединенных Штатах, Европе и России, а может быть, несколько сотен миллионов из-за последующих последствий в тех же областях. Опрос Института Будущего Человечества оценил 4% -ную вероятность вымирания от войны к 2100 году, с 1% -ной вероятностью исчезновения от ядерной войны.

Восприятие риска
По словам Элиэзера Юдковского, многие когнитивные предубеждения могут влиять на то, как люди и группы считают важность глобальных рисков бедствий, в том числе нечувствительность к охвату, эвристическую доступность, предвзятость репрезентативности, влияют на эвристику и влияние чрезмерной самоуверенности. Например, нечувствительность к сфере охвата приводит к тому, что люди чаще сталкиваются с индивидуальными угрозами, чем те, которые адресованы более крупным группам (поэтому их пожертвования на альтруистические причины не пропорциональны масштабу проблемы); поэтому они не считают исчезновение человечества столь же серьезной проблемой, как и должно быть. Точно так же смещение репрезентативности приводит их к минимизации бедствий, которые имеют мало общего с теми, кого они знают, и полагая, что нанесенный им ущерб не будет более серьезным.

Часто было замечено, что большинство упомянутых выше антропогенных рисков часто соответствуют очень древним мифам, а именно Прометея в Пандоре, а в последнее время наиболее популярным является ученик колдуна. Символизм четырех Всадников Апокалипсиса, последних трех представительных Войн, Голодомора и Смерти, уже находится в Ветхом Завете как неудобный выбор, предложенный Богом королю Давиду. Различные опасности машинного восстания появляются в мифе о Големе и в сочетании с биотехнологиями в истории монстра Франкенштейна. С другой стороны, было высказано предположение, что рассказы о бедствиях различных религиозных традиций (где они чаще всего связаны с гневом божеств) будут соответствовать воспоминаниям о реальных катастрофах (например, потоп будет связан с повторной связью с морем Мармара с Черным морем); под названием катастрофического последовательного (когерентного катастрофизма), Виктор Клюбе и Билл Нейпир разработали гипотезу о том, что катаклизматические метеорные потоки породили многие космологические мифы, начиная от истории разрушения Содома и Гоморры (тезис также защищен Мари-Агнес Courty) к описаниям Откровения; Однако их идеи хорошо приняты научным сообществом.

Существование этих «мифических» интерпретаций, а также многочисленные предсказания конца 15-го века облегчают феномен частичного или полного отказа принимать во внимание эти риски бедствий, известные как синдром Кассандры: в то время как антропогенные риски сводятся к минимуму, приписывая их иррациональным страхам, катастрофы, описанные в мифах, оцениваются преувеличенными невежеством и деформацией воспоминаний.

Анализ рисков, вызванных людьми, страдает от двух противоположных предубеждений: осведомители склонны преувеличивать риск быть услышанным или даже осуждать мнимые риски во имя принципа предосторожности; мощные экономические интересы, направленные на то, чтобы свести к минимуму риски, связанные с их деятельностью, как это показано, например, в случае института Heartland, и в более общем плане анализ стратегий дезинформации, изложенных в «Купчиках сомнений».

Дав рациональную интерпретацию мифа о золотом веке № 20, Джаред Даймонд наконец заметил, что некоторые катастрофы («крах» Ник Бостром) могут стать необнаруженными компаниями, которые страдают от недостатка памяти, достаточной для истории; это так, как он объясняет экологическую катастрофу, которую испытывают жители острова Пасхи.

Меры предосторожности и профилактика
В качестве подхода к снижению риска бедствий была предложена концепция глобального управления в отношении планетарных границ. В частности, область геоинженерии предусматривает манипулирование глобальной средой для борьбы с антропогенными изменениями в составе атмосферы. Были изучены комплексные методы хранения и сохранения продуктов питания, но их затраты будут высокими, и они могут усугубить последствия недоедания. Дэвид Денкенбергер и Джошуа Пирс предложили использовать различные альтернативные продукты для снижения риска голодания, связанные с глобальными катастрофами, такими как ядерная зима или внезапное изменение климата, например, превращение биомассы (деревьев и древесины) в пищевые продукты; Однако в этой области потребуется большой прогресс, чтобы эти методы позволили выжить значительной части населения. Другие рекомендации по снижению риска, такие как стратегии отклонения астероидов для устранения рисков воздействия или ядерного разоружения, оказываются экономически или политически трудными для реализации. Наконец, колонизация пространства — еще одно предложение, направленное на увеличение шансов на выживание перед лицом экзистенциального риска, но решения такого типа, которые в настоящее время недоступны, несомненно, потребуют, среди прочего, использования крупномасштабных машиностроение.

Среди мер предосторожности, фактически принимаемых индивидуально или коллективно, включают:

Создание запасов продовольствия (запланированных на несколько лет) и других ресурсов, выделяемых спасателями в рамках, например, строительства антиатомных приютов.

Мировой заповедник «Свальбард», подземный свод на норвежском острове Шпицберген, предназначен для того, чтобы сохранить все продовольственные культуры в мире безопасными и безопасными, тем самым сохраняя генетическое разнообразие; некоторые из этих семян следует хранить в течение нескольких тысяч лет. В мае 2017 года хранилище было затоплено плавлением вечной мерзлоты из-за глобального потепления, не повредив запасы семян.

Анализы и обзоры
Важность рисков, описанных в предыдущих разделах, редко отрицается, хотя риски для людей часто сводятся к минимуму; однако анализы Ника Бостром были подвергнуты критике с нескольких разных точек зрения.

Технические обзоры
Многие из рисков, упомянутых Ником Бостром в его книгах, считаются преувеличенными (даже мнимыми) или соответствуют столь масштабным масштабам времени, что кажется несколько абсурдным группировать их с почти мгновенными угрозами. Более того, расчеты вероятности, надежды или полезности трудны или плохо определены для такого рода ситуаций, как это показано, например, парадоксами, такими как аргумент апокалипсиса, и, как признает Ник Бостром. сам. В частности, он разработал этический аргумент, в котором утверждается, что непомерное число наших потомков, обреченных на ничто в результате экзистенциальной катастрофы, оправдывает использование всех мыслимых средств для уменьшения, как бы мало это ни было, вероятности аварии; однако расчеты, на которых он основан, были оспорены, и этот аргумент вполне может быть лишь ошибкой.

Ник Бостром и Макс Тегмарк опубликовали в 2005 году анализ риска нестабильности всей вселенной. Независимо от действительности их расчетов (стремление показать, что риск очень низок), можно задаться вопросом, действительно ли смысл говорить о катастрофе, о которой никто не будет предупрежден заранее и кто не оставит наблюдателя; во время аналогичного обсуждения риска цепной реакции, воспламеняющей всю атмосферу, друг ответил на беспокойства Ричарда Хэмминга: «Не волнуйся, Хэмминг, тебя не будет кого обвинять».

Философские позиции
Анализ Ник Бостром основан на трансгуманизме, идеологии, пропагандирующей использование науки и техники для улучшения физических и психических характеристик людей; и он считает, что все, что может предотвратить человечество от его полного потенциала, — это экзистенциальный риск.

Эта позиция подвергается серьезной критике, отчасти потому, что она ведет к отрицанию ценностей, которые человечество прилагает от имени гипотетических будущих ценностей. Стив Фуллер особо отметил, что если глобальная катастрофа не уничтожит все человечество, оставшиеся в живых могут законно рассмотреть в некоторых случаях, что их положение улучшилось.