人為の世界壊滅のリスク

グローバルな災害リスクは、世界規模で人間の福祉に損害を与え、現代文明を壊滅させたり破壊したりする可能性のある仮説的な将来の出来事です。 人間の絶滅を引き起こす可能性があるイベントや、人類の可能性を劇的に縮小するイベントは、実在のリスクとして知られています。

潜在的な世界的な壊滅的なリスクには、人間(技術、ガバナンス、気候変動)に起因する人為的リスク、自然または外部のリスクが含まれます。 技術的リスクの例としては、敵対的な人工知能、破壊的なバイオテクノロジーまたはナノテクノロジーがあります。 不十分または悪質なグローバルガバナンスは、核兵器の虐殺、遺伝的に改変された生物を使用するバイオテロリズム、電気グリッドのような重要なインフラストラクチャを破壊するサイバーテロリズムなど、世界的な戦争のような社会的および政治的な領域においてリスクを引き起こす。 または自然のパンデミックを管理することができませんでした。 地球システムガバナンスの領域における問題とリスクには、地球温暖化、種の絶滅を含む環境劣化、不平等な資源配分の結果としての飢餓、人為的過密、作物の失敗、非持続的農業が含まれる。 人為起源でないリスクの例としては、小惑星の衝突事象、超爆発的な噴火、致命的なガンマ線の破裂、電子機器を破壊する地磁気の嵐、自然の長期的な気候変動、または敵対的な地球外生命などがある。

分類

世界的大惨事対実在性
哲学者のニック・ボストロムは、その範囲と強さに従ってリスクを分類します。 「グローバルな壊滅的リスク」とは、少なくとも「グローバルな」範囲であり、主観的には「知覚できない」リスクではないリスクです。 範囲内で少なくとも「世代交代」(すべての将来の世代に影響を及ぼす)であり、強度において「終端」であるものは、実在のリスクとして分類される。 世界的に壊滅的なリスクが地球上の大半の人生を犠牲にするかもしれないが、人類は潜在的に回復する可能性がある。 一方、実存的なリスクは、人類を(おそらく、人間以外の生命体や植物の生命の最も基本的な種を除くすべての)種を破壊するか、少なくとも文明復活の機会を阻止するものである。 ボストロムは、存在するリスクがはるかに重要であると考えています。

同様に、Catastrophe:Risk and Responseで、Richard Posnerは、「地方または地域」規模ではなく、グローバルな「転覆または破壊」をもたらすイベントをまとめてグループ化します。 Posnerは、人類全体の生存を直接的または間接的に危うくする可能性があるため、コスト便益の理由に特に注意する価値があるようなイベントを選別します。 Posnerのイベントには、流星の影響、急激な地球温暖化、灰色のグー、バイオテロリズム、粒子加速器の事故などがあります。

研究者は、人類が今までに破壊されたことはないので、人間の絶滅近くで直接研究することは困難です。 これが将来にはないことを意味するわけではありませんが、生存者の偏見に一部起因して、存在するリスクをモデリングするのが困難になります。

その他の分類
ボストロムは、4つのタイプの存在リスクを特定しています。 「バンズ」は突発的な災害であり、偶発的または意図的なものである可能性があります。 彼は、最も可能性が高いのは、ナノテクノロジー、核戦争の悪意のある使用、そして宇宙が終わるシミュレーションである可能性があると考えている。 「危機」とは、人類が生き残っても文明が徐々に破壊されるシナリオです。 これはおそらく、天然資源の枯渇、技術進歩を妨げる安定した世界政府、平均的な知性を低下させる異常な圧力であると彼は信じている。 「シエーク」は望ましくない先物です。 例えば、単一の心がコンピュータと合併してその能力を強化した場合、それは人間の文明を支配する可能性があります。 ボストロムは、このシナリオが最も可能性が高く、欠陥のある超インテリジェンスと抑圧的な全体主義体制が続くと考えている。 「Whimpers」は、人間の文明や現在の価値が徐々に低下しています。 彼は、最も可能性の高い原因は、道徳的な嗜好を変える進化であり、それに続く地球外の侵略であると考えている。

現実のリスクの道徳的重要性

いくつかの学者は、将来の世代に大きな利益をもたらすという理由で、実在のリスクを低減することを強く支持しています。 Derek Parfitは、太陽の拡大が地球を住めるようにする前に、私たちの子孫が潜在的に40億年も生き延びる可能性があるため、絶滅が大きな損失になると主張しています。 ニック・ボストロムは、植民地化の可能性がさらに高まっていると主張する。 将来の人間が宇宙を植民地化すれば、他の惑星で非常に多くの人々を支援することができ、潜在的には何年も続くことがあります。 したがって、現実のリスクを少しでも減らすことは、将来存在すると予想される人の数に非常に大きな影響を及ぼすでしょう。

指数関数的な割引は、これらの将来の利益をはるかに少なくするかもしれない。 しかし、Jason Mathenyは、現実のリスク削減の価値を評価する際には、そのような割引は不適切であると主張している。

一部のエコノミストは、存在しないリスクではあるが、グローバルな壊滅的リスクの重要性について議論している。 Martin Weitzmanは、気候変動による経済的被害の大部分は、温暖化がミッドレンジの期待値を大幅に上回り、壊滅的な被害をもたらすという小さなチャンスから来る可能性があると主張しています。 リチャード・ポーズナーは、大規模な大惨事のリスクを小さく見積もることは、一般的にはあまりにも少なすぎると主張しています。

多くの認知バイアスは、スコープの不感性、双曲線ディスカウント、可用性ヒューリスティック、連合誤謬、ヒューリスティックな影響、過信の影響を含む、実在のリスクの重要性に対する人々の判断に影響を与える可能性があります。

スコープの非感受性は、悪い人が人類の絶滅をどのように考えるかに影響します。 例えば、人々が利他的な原因にお金を寄付する意欲を持っている場合、約2,000人の鳥が約20万人の鳥が石油に悩まされていると大体は懸念されています。 同様に、人々はしばしば、より大きなグループよりも個人に対する脅威を心配している。

なぜ少数の努力が実在のリスク削減につながるのかを説明できる経済的な理由があります。 それは大域的な財であるため、大きな国がそれを減らしたとしても、その国はそうする利点のほんの一部しか享受しません。 さらに、将来の人々の大多数は、理論的にはおそらく現実のリスク削減のために多額の金額を支払うことになるだろうが、そのような取引のメカニズムは存在しない。

潜在的なリスク源
流行の影響や超爆発のような致命的なリスクの原因には自然があります。 これらのうちのいくつかは過去に大量の絶滅を引き起こしている。 一方で、地球温暖化、環境悪化、人工的なパンデミックや核戦争などの人為的なリスクもあります。

人為起源の
ケンブリッジ大学のケンブリッジプロジェクトでは、人類にとって「最大の脅威」は人工的であると述べています。 人工知能、地球温暖化、核戦争、不正なバイオテクノロジーです。 人類学の未来は、人間の絶滅が自然発生の原因よりも人為的な原因に起因する可能性が高いと述べている。

人工知能
急速に超知能化するコンピュータの学習は、予期せぬ動作をする可能性があること、あるいはロボットが人類の競争を勝ち抜くことが示唆されている(1つの技術的特異性シナリオ)。 その例外的なスケジューリングと組織能力とそれが発展する可能性のある新技術の範囲のために、最初の地球スーパーインテリジェンスが急速に無比かつ無比になる可能性があります:おそらくそれはほぼすべての可能な結果を​​もたらし、その目標を達成することを妨げる恐れのあるあらゆる試みを実質的に阻止することができる。 選んだ場合、他の挑戦的なライバルの知性を消し去ることができます。 代わりに、彼ら自身の利益に向かって行動を変えるように彼らを操作したり説得したり、妨害の試みを妨げるだけかもしれない。 ボストロムの著書Superintelligence:Paths、Dangers、Strategiesで、彼はこれを制御問題と定義しています。 物理学者スティーブンホーキング、マイクロソフト創始者のビルゲイツとスペースXの創設者エロンマッスルは、ホーキング博士がこれが “人類の終わりを綴る”ことを理論化して、これらの懸念をエコーし​​た。

2009年には、人工知能推進協会(AAAI)が、コンピュータやロボットがどんな種類の自律性を獲得できるか、そしてこれらの能力がどれだけ脅威や危険をもたらすかについて議論するための会議を開催しました。 彼らは、いくつかのロボットは、自力で電源を見つけることができ、兵器で攻撃する標的を独立して選ぶことができるなど、様々な形態の半自律性を獲得したと指摘した。 彼らはまた、コンピュータウイルスの中には駆除を回避し、「ゴキブリ情報」を達成したものもあると指摘した。 彼らは、科学虚構で描写されているような自己意識はおそらくないだろうが、他の潜在的な危険と落とし穴があると指摘した。 さまざまなメディアソースや科学グループが、異なる分野で別々の傾向を記録しており、それによってロボットの機能と自律性が高まり、いくつかの固有の懸念が提起される可能性があります。

AI専門家の調査によると、人類に長期間影響を及ぼす「非常に悪い(例:人間の絶滅)」を持つ人間レベルの機械学習の可能性は5%と推定されています。 ヒューイティティ・インスティテュート・オブ・ヒューマン・インスティテュートの調査では、2100年までにスーパーインテリジェンスによる消滅の確率は5%と推定されています。人工知能によるリスクは、擬人化による偏見による他の既知のリスクよりも予測が難しいと考えています。 人々は人工知能の判断を自分の経験に基づいているので、AIの潜在的な能力を過小評価していると主張する。

バイオテクノロジー
バイオテクノロジーは、生物工学生物(ウイルス、細菌、菌類、植物または動物)の形で世界的に破局的なリスクを引き起こす可能性があります。 多くの場合、生物は、人間、家畜、作物または他の生物(例えば、花粉媒介物質または腸内細菌)の病原体となる。 しかし、生態学的機能を壊滅的に破壊する生物、例えば競争の激しい雑草、必須作物との競合などは、バイオテクノロジーのリスクをもたらす。

生物工学の災害は、制御された環境から逃れる遺伝的に改変された生物を偶発的に放出し、そのような生物が計画的に放出され、生物戦における代理人、バイオテロ攻撃。 病原体は病原性および他の特性を変化させるために故意にまたは意図せずに遺伝的に改変され得る。 例えば、オーストラリアの研究者のグループは、げっ歯類を殺菌するためにウイルスを開発しようとしている間に、意図せずにマウスポックスウイルスの特徴を変えました。 改変されたウイルスは、ワクチン接種されたマウスおよび天然に耐性のマウスにおいてさえ、非常に致死的になった ウィルス特性を遺伝的に改変するための技術的手段は、適切に規制されていなければ、将来的にはより広く利用されるようになる可能性が高い。

歴史的にバイオテクノロジーのテロリストへの応用はめったになかった。 能力の不足や動機づけのためにこれがどの程度まで解決されているのかは分かりません。 しかし、現時点での開発が進められれば、将来的には新規で操作された病原体によるリスクが増加すると予想される。 指数関数的な成長がバイオテクノロジー部門で観察されており、NounとChybaは、これが今後数十年間にバイオテクノロジー能力の大幅な向上につながると予測している。 生物学的病原体は量産が容易であり、その生産量を管理することが難しいため(特に、個々のユーザーにも技術的能力が利用可能になっているため)、生物戦および生物テロリズムのリスクは核や化学の脅威とは異なると主張している。 Future of Humanity Instituteによる調査では、2100年までに設計されたパンデミックによる絶滅の確率は2%と推定されています。

NounとChybaは、バイオテクノロジーや自然界のパンデミックからのリスクを軽減するための3つの措置を提案しています:潜在的に危険な研究の規制または防止、病気の発生の認識の改善、病気の流行を緩和する施設の開発(より優れた広範なワクチンなど)

サイバー攻撃
サイバー攻撃は、個人データから電力網に至るまですべてを破壊する可能性があります。 Foresight Instituteの共同創設者兼元会長であるChristine Petersonは、電気グリッド上のサイバー攻撃は致命的なリスクになる可能性があると考えています。

地球温暖化
地球温暖化とは、19世紀またはそれ以前の人間の技術によって引き起こされた温暖化を指します。 将来の気候変動の予測は、さらに地球温暖化、海面上昇、およびいくつかの極端な気象事象および気象関連災害の頻度および重大性の増加を示唆している。 地球温暖化の影響には、生物多様性の喪失、既存の食品生産システムへのストレス、マラリアなどの既知の伝染病の拡大、微生物の急速な変異などがあります。 2017年11月、184カ国の15,364人の科学者による声明では、化石燃料の使用、人口増加、森林伐採、農業生産のための土地の過度使用、特に肉消費の反すう動物による温室効果ガスの増加がトレンド何十年にもわたって人類の悲惨さの増加を予測する方法。

環境災害
世界の作物不足や生態系サービスの崩壊などの環境災害や生態学的災害は、過剰蔓延、経済発展、非持続的農業の現在の傾向によって引き起こされる可能性がある。 ほとんどの環境シナリオには、以下のうちの1つ以上が含まれます:ホロコーネ絶滅事象、地球の人口の約半分が安全な飲料水なし、花粉媒介者の減少、過剰漁獲、大規模な森林破壊、砂漠化、気候変動、または大規模な水質汚染のエピソード。 21世紀初めに発見されたこの方向の脅威は、コロニー崩壊障害であり、西洋ミツバチの切迫した絶滅を予感させる可能性があります。 ミツバチは授粉に重要な役割を果たしているので、その繁殖は食物連鎖を大きく崩壊させるだろう。

The Lancetに掲載された10月の2017年の報告書には、有毒な大気、水、土壌、職場などが、2015年には世界中の900万人の死者、特に大気汚染心臓病、脳卒中、および肺癌が挙げられる。 報告書は、公害の危機が「地球がもたらす公害の量の包絡線」と「人間社会の存続を脅かす」を超えていると警告した。

鉱物資源の枯渇
経済学の先駆者であり、生態学的経済学のパラダイム創始者であるルーマニアのアメリカの経済学者、ニコラス・ジョルジュスク・ローゲンは、地球の持ち運び能力、つまり人口と消費レベルを維持する地球の能力は、いつか将来低下するだろうと主張している地球の有限の鉱物資源が現在抽出され使用されているため、 その結果として、世界経済全体が不可避の将来の崩壊に向かい、人間文明自体の破壊につながっていることを示しています.303f生態学的経済学者であり定常状態の理論家であるGeorgescu-Roegenの学生であるHerman Dalyは、 “…私たちができることは、現在と将来の人生を支援する創造の限られた能力を浪費することを避けることです。”:370

Georgescu-RoegenとDalyがこれらの見解を公表して以来、現場の様々な学者が、未知数の現代および未来の世代の間で、地球の有限ストックの鉱物資源を均等に分配するという現実的な不可能性について議論してきました。 人類が最終的に絶滅に向かうかどうか、また、いつ、あらかじめ知る方法がほとんどないため、この数の世代は私たちには未知のままです。 事実、株式の時系列的な配分は、将来的に普遍的な経済の低下に終わることは避けられません.253-256:165:168-171:150-153:106-109:546-549:142-145

実験的技術的事故
ニック・ボストロムは知識の追求において、人類が不注意に地球と太陽系を破壊する可能性のあるデバイスを作り出すかもしれないと示唆しました。 原子力や高エネルギー物理学の研究は、致命的な結果を伴う異常な条件を作り出す可能性がある。 例えば、科学者たちは、最初の核実験が大気に点火するかもしれないと心配した。 最近では、RHICや大型ハドロンコライダーが、ブラックホール、不思議の国、または誤った真空状態を伴う連鎖反応の世界的災害を開始する可能性があるとの懸念がありました。 これらの特定の懸念は否定されているが、一般的な懸念事項が残っている。

バイオテクノロジーはパンデミックの創造につながる可能性があり、化学戦争は極端に進む可能性があります。ナノテクノロジーは、制御不能な自己複製ロボットが地球上のすべての生物を消費しながら、事件は意図的に、または事故によって発生する可能性があります。

ナノテクノロジー
多くのナノスケール技術が開発中または現在使用中です。 重要な世界的災害リスクを引き起こす唯一のものは、原子精度で複雑な構造を構築することを可能にする技術である分子製造です。 分子製造はナノテクノロジーの大幅な進歩を必要とするが、一度達成すれば低コストで大量のナノスケールのデスクトップ材料を製造することができる。 ナノファクトリが他のナノファクタを生産する能力を獲得すると、生産は入力材料、エネルギー、ソフトウェアなどの比較的豊富な要因によってのみ制限されることがあります。

分子製造は、他の多くの製品の中でも、高度に耐久性のある武器を安価に製造するために使用できます。 コンパクトなコンピュータとモーターが装備されているため、これらはますます自立し、幅広い機能を持つことができます。

クリスフェニックスとトレダーは、ナノテクノロジーによってもたらされる致命的なリスクを3つのカテゴリーに分類します。

AIやバイオテクノロジーなどの他の技術の開発を強化することから。
リスクダイナミクス(武器競争など)の原因となる、潜在的に危険な製品の量産を可能にすることにより、それらの使用方法が異なります。
破壊的な影響を伴う制御されていない自己永続プロセスから。

いくつかの研究者は、ナノテクノロジーによるリスクの大部分は、戦争、武器競争、破壊的な世界政府につながる可能性があると述べている。 ナノテク兵器の入手可能性が、(核兵器競争と比較して)不安定な武器競争につながる可能性が非常に高い理由がいくつか示唆されている。

大勢の選手は、レースへの参加を誘惑する可能性があります。
分子製造で武器を作る能力は安くて簡単に隠れます。
したがって、他の当事者の能力に対する洞察力の欠如は、プレイヤーが慎重に立ち止まったり、先制攻撃を開始したりすることを誘発する可能性がある。
分子製造は、国際貿易、潜在的な平和促進要因への依存を減らすかもしれない。
侵略戦争は、製造が安価であり、戦場で人間が必要とされない可能性があるため、侵略者に対してより経済的な脅威を与える可能性があります。
すべての国家主体と非国家主体による自主規制は達成が難しいようであるため、主に国際協力の分野で戦争関連のリスクを軽減するための措置が提案されている。 国際的なインフラが拡大し、国際レベルへのより主権が与えられるかもしれない。 これは武器管理のための努力を調整するのに役立つだろう ナノテクノロジーに特化した国際機関(国際原子力機関(IAEA)に類似)や一般的な武器管理も設計される可能性がある。 また、防衛技術に関する技術的進歩を共同で行うこともできます。 責任ナノテクノロジーのセンターはまた、いくつかの技術的制限を示唆している。 技術力に関する透明性の向上は、武器支配のためのもう一つの重要なファシリテーターになるかもしれない。

グレイ・グーは、1986年の「創造のエンジン」の中でエリック・ドレクスラーによって提案され、主流のメディアとフィクションのテーマとなった別の悲惨なシナリオです。 このシナリオには、エネルギーとビルディングブロックの源泉として生物圏全体を消費する小さな自己複製ロボットが含まれます。 しかし、今日では、ナノテクノロジーの専門家(Drexlerを含む)がシナリオを信用していません。 フェニックスによれば、「いわゆる灰色のグーグルは、事故ではなく、意図的かつ難しい工学的プロセスの産物でしかない」という。

戦争と大量破壊
最も頻繁に調査されているシナリオは、核戦争と終末期のものです。 Martin Hellman教授は、長期的には核戦争の可能性は低いものの、それは避けられないと述べている。 確率がゼロに近づかなければ、必然的に文明の運がなくなる日が来るでしょう。 キューバのミサイル危機において、米国のジョン・F・ケネディ大統領は、核戦争の可能性を「3時から1時の間のどこかで」推定した。 米国とロシアには14,700核兵器が揃っており、世界には約15,700の核兵器が存在すると推定されています。 原子力以外にも、人類に対する他の軍事的脅威には、生物戦(BW)が含まれる。 対照的に、化学兵器は、複数の地方の大災害を作り出すことはできるものの、グローバルなものを作り出すことはまずありません。

核戦争は、前例のない人の死者の通行料や生息地の破壊をもたらす可能性がある。 多数の核兵器を爆発させると、気候に短期的かつ短期的な影響があり、寒波や太陽光や光合成が低下し、先進文明において大きな激変を引き起こす可能性があります。 しかし、一般的な知覚は核戦争を「世界の終わり」とすることがあるが、専門家は核戦争からの人間絶滅に低い確率を当てる。 1982年、ブライアン・マーティンは、米国・ソビエト核の交換は、主に米国、欧州、ロシアで400〜450百万人を直接殺してしまう可能性があると推定し、同じ地域でフォローアップの結果として数億 ヒューマン・インスティテュート・オブ・インスティテュートの調査では、2100年までに戦争からの絶滅の確率は4%、核戦争からの絶滅の可能性は1%と推定されています。

リスクの認識
Eliezer Yudkowskyによると、多くの認知バイアスは、個人やグループが、範囲に対する無感覚、ヒューリスティックなアベイラビリティ、代表バイアス、ヒューリスティック、過信の影響など、グローバルな災害リスクの重要性を考慮する方法に影響を与える可能性があります。 例えば、スコープに対する非感受性は、より大きなグループに向けられたものよりも、個人の脅威に関心を持つようになります(これが、利他主義に対する寄付が問題の大きさに比例しない理由です)。 だからこそ、彼らは人類の絶滅を真剣に問題にするとは考えていないのです。 同様に、代表性バイアスは、彼らが気付いていたものとほとんど関係がない災害を最小限に抑え、彼らが引き起こす被害がそれほど深刻なものではないと仮定している。

多くの場合、上記の人為的リスクの大部分は、非常に古代の神話、プロメテウスのもの、パンドラのものに対応しており、最近では魔術師の見習いのものが最も代表的であることに気づいています。 最後の3つの代表的な戦争、飢饉、死という黙示録の4人の騎士団の象徴は、神がダビデ王に提供した不快な選択として、旧約聖書にすでにあります。 機械の反乱の様々なリスクは、フランケンシュタインの怪物の物語の中で、ゴーレムの神話やバイオテクノロジーと組み合わせて現れます。 一方で、様々な宗教的伝統の災害物語(神の怒りに最も頻繁に関係する)は、実際の災害の記憶に対応すると示唆されている(例えば、洪水は海への再接続につながるマルマラと黒海との間)。 Victor ClubeとBill Napierは、大惨事の流星群が、ソドムとゴモラの破壊の歴史から、多くの宇宙論的神話を生み出してきたという仮説を立てた(Marie-Agnesによって擁護された論文クール)を啓示の記述に変換する。 しかし、彼らのアイデアは、科学界によって広く受け入れられています。

これらの「神話的な」解釈の存在は、世界的な多くの預言である第15号の存在により、カッサンドラ症候群と呼ばれるこれらの災害リスクを部分的にまたは完全に拒否する現象を促進する。人為的リスクそれらを非合理的な恐怖に帰すことによって最小化され、神話に記述された大惨事は記憶の無知と変形によって誇張されていると判断される。

人が引き起こすリスクの分析には、2つの反対の偏見があります。内部通報者は、リスクを誇張する傾向があります。予防原則という名目で想像上のリスクを告発することさえあります。 例えばハートランド研究所の場合に示されているように、活動に伴うリスクを最小限に抑えようとする強力な経済的利益、より一般的には疑わしい商人に示された虚偽情報分析の分析。

黄金時代の神話を合理的に解釈すると、ジャレッド・ダイアモンドは、最終的に、記憶が足りない災害(ニック・ボストロムの “崩壊” 彼はイースター島の住民が被った生態系の災害について説明しています。

予防と予防
惑星の境界を尊重したグローバルガバナンスの概念は、災害リスク削減へのアプローチとして提案されている。 特に、ジオエンジニアリングの分野は、大気組成の人為的変化と戦うために地球環境を操作することを想定している。 包括的な食料貯蔵と保存技術が探求されているが、その費用は高く、栄養失調の結果を悪化させる可能性がある。 David DenkenbergerとJoshua Pearceは、核冬や突然の気候変動などの世界的な災害に関連して、例えばバイオマス(木や木材)を食用製品に変換するなど、飢餓のリスクを軽減するために様々な代替食品を使用することを提案している。 しかし、この分野では多くの進歩を遂げるため、これらの方法では人口の大部分が生き残ることができます。 影響リスクに対処するための小惑星偏向戦略や核軍縮などの他のリスク削減提案は、経済的または政治的に実施することが困難であることが判明している。 最後に、空間の植民地化は、実在のリスクに直面して生存の機会を増やすために作られた別の提案ですが、現在アクセスできないこのタイプの解決策は、間違いなく大規模なエンジニアリング。

実際に個別または集合的に取られる予防措置には、

食糧確保(数年間計画されている)や生存者によって作られた他の資源(例えば、原子力防止施設の建設)の確立。

ノルウェーのスピッツベルゲン島の地下貯蔵所であるスヴァールバル世界種子保護区は、世界のすべての食糧作物の種子を安全かつ安全に保ち、遺伝的多様性を保つことを目的としていた。 これらの種子の中には、数千年も保たれるべきものがあります。 2017年5月、地球温暖化のために種苗の供給を傷つけることなく、永久凍土が溶け込んでいました。

分析とレビュー
以前のセクションで詳述されたリスクの重要性は、人間に対するリスクが最小限に抑えられているにもかかわらず、ほとんど否定されていません。 しかし、ニック・ボストロムの分析はいくつかの異なる視点から批判されている。

テクニカルレビュー
Nick Bostromが彼の著書で言及しているリスクの多くは、誇張されている(架空のものでも)と考えられているか、または時間スケールに対応しているため、ほとんど脅威にさらされています。 さらに、例えば、黙示的議論のようなパラドックスや、ニック・ボストロムが認めているように、確率、希望、または有用性の計算は、このような状況では困難または不明瞭です。 彼自身。 特に、彼は、実在の大惨事によって無限に犠牲になった私たちの子孫の莫大な数が、事故の可能性はほとんど低減させるために考えられるすべての手段を採用することを正当化すると主張する倫理的主張を展開した。 しかし、それが基礎となっている計算は争われており、この議論は誤ったものに過ぎないかもしれない。

Nick BostromとMax Tegmarkは、2005年に宇宙全体の不安定性のリスクを分析しました。 その計算の妥当性にかかわらず(リスクが非常に低いことを示す傾向がある)、事前に誰も警告されず、観察者を残さない災害について話す意味が本当にあるのだろうか。 同様の話し合いの中で、大気に点火する連鎖反応の危険性について、友人はリチャード・ハミングに心配しないでください。ハミング、あなたを責める者は誰もいません。

哲学的立場
ニック・ボストロムの分析は、人類の肉体的、精神的特性を改善するための科学技術の使用を主張するイデオロギーであるトランスヒューマニズムに基づいている。 人類がその潜在能力を完全に発揮することを妨げる可能性のあるものはすべて、実在のリスクであると考えています。

この立場は、仮説的な将来価値のために人類が現在存在する価値観を否定することにもつながっているため、部分的に厳しく批判されている。 スティーブ・フラーは特に、世界的な大惨事がすべての人類を破壊しなければ、生存者は状況によっては状況が改善したと正当に考えるかもしれないと指摘した。