人为全球灾难性风险

全球灾难性风险(Global catastrophic risk)是一种假设的未来事件,可能在全球范围内损害人类福祉,甚至摧毁或破坏现代文明。 可能导致人类灭绝或永久性地大幅削减人类潜力的事件被称为存在风险。

潜在的全球灾难性风险包括由人类(技术,治理,气候变化)以及自然或外部风险引起的人为风险。 技术风险的例子是敌对的人工智能和破坏性的生物技术或纳米技术。 全球治理不足或恶化会在社会和政治领域造成风险,例如全球战争,包括核浩劫,使用转基因生物的生物恐怖主义,破坏电网等关键基础设施的网络恐怖主义; 或未能管理自然流行病。 地球系统治理领域的问题和风险包括全球变暖,环境退化,包括物种灭绝,由于非公平的资源分配造成的饥荒,人口过剩,作物歉收和不可持续农业。 非人为风险的例子包括小行星撞击事件,超火山爆发,致命伽马射线爆发,破坏电子设备的地磁风暴,自然长期气候变化或敌对的外星生命。

分类

全球灾难与存在主义
哲学家尼克博斯特罗姆根据其范围和强度对风险进行分类。 “全球灾难性风险”是指范围内至少是“全球性”的任何风险,并且在强度上不是主观上“不可察觉的”。 那些至少是“跨代”(影响所有后代)范围和强度“终端”的那些被归类为存在风险。 虽然全球灾难性风险可能会扼杀地球上的绝大多数生命,但人类仍有可能恢复。 另一方面,存在风险是要么完全破坏人类(并且可能是除了最基本的非人类生命形式和/或植物生命之外的所有物种),要么至少阻止任何文明恢复的机会。 博斯特罗姆认为存在风险更为重要。

同样,在“灾难:风险与反应”中,理查德·波斯纳(Richard Posner)将全球而非“地方或区域”规模的“彻底推翻或毁灭”事件单独列出并组合在一起。 波斯纳在成本效益方面特别指出了值得特别关注的事件,因为它们可能直接或间接地危害整个人类的生存。 波斯纳的事件包括流星撞击,失控的全球变暖,灰色粘性物质,生物恐怖主义和粒子加速器事故。

研究人员直接研究人类灭绝的困难,因为人类以前从未被摧毁过。 虽然这并不意味着它将来不会存在,但它确实使存在风险建模变得困难,部分原因在于生存偏差。

其他分类
博斯特罗姆确定了四种存在风险。 “爆炸”是突然的灾难,可能是偶然的或故意的。 他认为最可能的爆炸来源是恶意使用纳米技术,核战争以及宇宙可能会结束的模拟。 “仰卧起坐”是人类生存但文明被慢慢摧毁的场景。 他认为,最可能的原因是自然资源枯竭,一个阻止技术进步的稳定的全球政府,或降低平均智力的致病压力。 “尖叫”是不受欢迎的未来。 例如,如果一个单一的头脑通过与计算机合并来增强其力量,它就可以支配人类文明。 博斯特罗姆认为,这种情况最有可能发生,其次是有缺陷的超级智能和压制性的极权主义政权。 “呜咽”是人类文明或当前价值观逐渐衰落的结果。 他认为最可能的原因是进化改变道德偏好,其次是外星入侵。

存在风险的道德重要性

一些学者强烈赞成减少存在风险,理由是它对后代有很大的好处。 Derek Parfit认为灭绝将是一次巨大的损失,因为在太阳扩张使地球无法居住之前,我们的后代可能存活40亿年。 尼克博斯特罗姆认为,殖民空间的潜力更大。 如果未来的人类在太空中殖民,他们可能能够支持其他星球上的大量人,可能持续数万亿年。 因此,即使少量减少存在风险,也会对将来存在的预期人数产生非常显着的影响。

指数贴现可能会使这些未来的收益显着降低。 然而,Jason Matheny认为,在评估存在风险降低的价值时,这种贴现是不合适的。

一些经济学家已经讨论了全球灾难性风险的重要性,尽管不是存在风险。 Martin Weitzman认为,气候变化造成的大部分预期经济损失可能来自于变暖大大超过中期预期的可能性很小,导致灾难性破坏。 理查德·波斯纳(Richard Posner)认为,总的来说,我们对大规模灾难的小型,难以估计的风险做得太少了。

许多认知偏差会影响人们对存在风险重要性的判断,包括范围不敏感,双曲线贴现,可用性启发式,联合谬误,情感启发式和过度自信效应。

范围不敏感会影响人们认为人类灭绝的程度。 例如,当人们有动机向利他主义捐款时,他们愿意提供的数量并没有随着问题的严重程度线性增加:人们大致关心的是20万只被困在油中的鸟类大约有2000只。 同样,人们往往更关心对个人的威胁,而不是大群体。

潜在的风险来源
灾难性风险的一些来源是自然的,例如流星撞击或超级火山。 其中一些已造成过去的大规模灭绝。 另一方面,一些风险是人为的,例如全球变暖,环境退化,工程流行病和核战争。

人为
剑桥大学剑桥项目指出,对人类物种的“最大威胁”是人为的; 它们是人工智能,全球变暖,核战争和流氓生物技术。 人类研究所的未来还指出,人类灭绝更可能是由人为原因而非自然原因引起的。

人工智能
有人建议,学习快速变得超级智能的计算机可能会采取不可预见的行动,或机器人会超越人类(一种技术奇点场景)。 由于其卓越的调度和组织能力以及它可以开发的各种新技术,有可能首先出现的地球超级智能可以迅速变得无与伦比且无与伦比:可以想象它能够带来几乎任何可能的结果,并且几乎可以阻止任何威胁要阻止其实现目标的企图。 如果它选择的话,它可以消除,消灭任何其他具有挑战性的竞争对手; 或者它可能操纵或说服他们改变他们的行为以实现自己的利益,或者它可能仅仅阻碍他们干涉的企图。 在博斯特罗姆的书“超级智能:路径,危险,策略”中,他将此定义为控制问题。 物理学家斯蒂芬霍金,微软创始人比尔盖茨和SpaceX创始人埃隆马斯克都回应了这些担忧,霍金认为这可能“拼写人类的终结”。

2009年,人工智能促进协会(AAAI)主办了一次会议,讨论计算机和机器人是否能够获得任何形式的自主权,以及这些能力可能构成威胁或危害的程度。 他们指出,一些机器人已经获得了各种形式的半自治,包括能够自己找到能源并能够独立选择用武器攻击的目标。 他们还指出,一些计算机病毒可以逃避消除并实现“蟑螂情报”。 他们指出,科幻小说中描述的自我意识可能不太可能,但存在其他潜在的危险和陷阱。 各种媒体来源和科学团体已经注意到不同领域的不同趋势,这些趋势可能共同导致更大的机器人功能和自主性,并且引起一些固有的关注。

一项针对人工智能专家的调查估计,人类机器学习对人类产生“极端恶劣(例如人类灭绝)”长期影响的可能性为5%。 人类研究所未来的一项调查估计,到2100年,超级智能将有5%的濒临灭绝的可能性.Eliezer Yudkowsky认为人工智能带来的风险比任何其他已知的由于拟人偏见造成的风险更难预测。 由于人们根据自己的经验判断人工智能的判断,他声称他们低估了人工智能的潜在力量。

生物技术
生物技术可能以生物工程生物(病毒,细菌,真菌,植物或动物)的形式造成全球性的灾难性风险。 在许多情况下,生物体将是人类,牲畜,作物或我们赖以生存的其他生物的病原体(例如传粉者或肠道细菌)。 然而,任何能够灾难性破坏生态系统功能的生物,例如竞争激烈的杂草,竞争激烈的基本作物,都会带来生物技术风险。

生物技术灾难可能是由于意外释放逃离受控环境的基因工程生物体,通过计划释放这种生物体而导致与基本天然或农业生态系统发生无法预料和灾难性的相互作用,或故意使用生物生物战中的特工,生物恐怖袭击。 可以有意或无意地对病原体进行遗传修饰以改变毒力和其他特征。 例如,一群澳大利亚研究人员在尝试开发病毒以对啮齿动物进行灭菌时无意中改变了鼠痘病毒的特征。 即使在接种疫苗和天然抗性小鼠中,修饰的病毒也变得高度致死。 如果没有适当的监管,未来可能会更广泛地提供基因改变病毒特征的技术手段。

生物技术的恐怖主义应用在历史上并不常见。 由于缺乏能力或动机,这在多大程度上没有得到解决。 然而,鉴于目前的发展,未来预计新型工程病原体将面临更大的风险。 在生物技术领域已经观察到指数增长,Noun和Chyba预测这将导致未来几十年生物技术能力的大幅提升。 他们认为,生物战和生物恐怖主义的风险不同于核和化学威胁,因为生物病原体更容易大规模生产,生产难以控制(特别是随着技术能力甚至可供个人用户使用)。 人类未来研究所(Future of Humanity Institute)的一项调查估计,到2100年,工程化大流行病的灭绝概率为2%。

Noun和Chyba提出了三类减少生物技术和自然大流行风险的措施:监管或预防潜在危险的研究,提高对疫情的认识,开发减轻疾病暴发的设施(例如更好和/或更广泛分布的疫苗)。

网络攻击
网络攻击有可能破坏从个人数据到电网的所有内容。 Foresight Institute的联合创始人兼前任主席Christine Peterson认为,对电网的网络攻击有可能成为灾难性风险。

地球暖化
全球变暖是指自19世纪或更早以来人类技术引起的变暖。 对未来气候变化的预测表明,全球气候变暖,海平面上升,以及某些极端天气事件和与天气有关的灾害的频率和严重程度增加。 全球变暖的影响包括生物多样性的丧失,对现有食物生产系统的压力,已知传染病如疟疾的传播增加以及微生物的快速突变。 2017年11月,来自184个国家的15,364名科学家发表的声明表明,使用化石燃料,人口增长,森林砍伐和过度使用土地用于农业生产的温室气体含量增加,尤其是反刍动物反刍肉类消费的趋势。预测未来几十年人类苦难增加的方法。

环境灾难
目前的人口过剩,经济发展和非可持续农业的趋势可能会导致环境或生态灾难,如世界作物歉收和生态系统服务崩溃。 大多数环境情景涉及以下一种或多种:全新世灭绝事件,水的稀缺可能导致地球上大约一半的人口没有安全的饮用水,传粉媒介减少,过度捕捞,大规模砍伐森林,荒漠化,气候变化或大规模水污染事件。 在21世纪初发现,这个方向的威胁是殖民地崩溃症,这种现象可能预示着西方蜜蜂即将灭绝。 由于蜜蜂在授粉过程中起着至关重要的作用,它的灭绝将严重扰乱食物链。

2017年10月发表在“柳叶刀”杂志上的一份报告指出,有毒空气,水,土壤和工作场所共同导致2015年全球900万人死亡,特别是空气污染与死于非传染性疾病的易感性有关,如心脏病,中风和肺癌。 该报告警告说,污染危机超出了“地球可以携带的污染量的范围”,并“威胁到人类社会的持续生存”。

矿产资源枯竭
罗马尼亚美国经济学家Nicholas Georgescu-Roegen是经济学的先驱,也是生态经济学的范例创始人,他认为地球的承载能力 – 即地球维持人口和消费水平的能力 – 必将在未来的某个时候减少因为地球上有限的矿产资源库存正在被提取并投入使用; 因此,整个世界经济正在走向不可避免的未来崩溃,导致人类文明本身的消亡.303f生态经济学家和稳态理论家赫尔曼达利,Georgescu-Roegen的学生,提出了相同的观点。通过断言“……我们所能做的就是避免浪费有限的创造能力来支持[地球上]现在和将来的生活。”:370

自从Georgescu-Roegen和Daly发表这些观点以来,该领域的各种学者一直在讨论在未知数目的当代和后代中均匀分配地球有限矿物资源的存在性不可能性。 我们可能仍然不知道这一代人的数量,因为如果人类最终将面临灭绝,几乎没有什么方法可以提前知道。 实际上,任何可以想象的股票跨期分布都将不可避免地导致未来某种程度上普遍的经济衰退。:253-256:165:168-171:150-153:106-109:546-549:142-245

实验技术事故
尼克博斯特罗姆建议,在追求知识的过程中,人类可能会无意中创造出一种可以摧毁地球和太阳系的装置。 对核能和高能物理的研究可能会产生不寻常的灾难性后果。 例如,科学家担心第一次核试验可能会点燃大气层。 最近,其他人担心RHIC或大型强子对撞机可能会引发涉及黑洞,陌生或虚假真空状态的连锁反应全球灾难。 这些特殊问题已经被驳斥,但人们普遍关注的仍然存在。

生物技术可能导致大流行病的发生,化学战可能会走向极端,纳米技术可能导致灰色粘性,其中失控的自我复制机器人消耗地球上的所有生物,同时建立更多自己 – 案件,无论是故意还是偶然。

纳米技术
许多纳米级技术正在开发或正在使用中。 唯一一个似乎构成重大全球灾难性风险的是分子制造,这种技术可以以原子精度构建复杂的结构。 分子制造需要在纳米技术方面取得重大进展,但一旦实现就能以低成本生产高度先进的产品,并且在台式比例的纳米工厂中大量生产。 当纳米工厂获得生产其他纳米工厂的能力时,生产可能仅受相对丰富的因素如输入材料,能源和软件的限制。

分子制造可以用于廉价生产许多其他产品中非常先进的耐用武器。 配备紧凑型计算机和电机可以越来越自主,并具有广泛的功能。

Chris Phoenix和Treder将纳米技术带来的灾难性风险分为三类:

从增加人工智能和生物技术等其他技术的发展。
通过大规模生产可能导致风险动态的潜在危险产品(例如军备竞赛),具体取决于它们的使用方式。
来自不受控制的自我延续过程和破坏性影响。

一些研究人员指出,纳米技术带来的大部分风险来自于导致战争,军备竞赛和破坏性全球政府的潜在可能性。 有人提出了几个原因,为什么纳米技术武器的供应可能导致不稳定的军备竞赛(与例如核武器竞赛相比):

由于这样做的门槛较低,很多球员可能会想要参加比赛;
用分子制造制造武器的能力便宜且易于隐藏;
因此,缺乏对其他各方能力的洞察力可能诱使玩家小心谨慎或发动先发制人的罢工;
分子生产可能会减少对国际贸易的依赖,这是一个潜在的促进和平因素;
侵略战争可能对侵略者造成较小的经济威胁,因为制造便宜并且在战场上可能不需要人类。
由于所有国家和非国家行为者的自我监管似乎难以实现,因此主要在国际合作领域提出了减轻与战争有关的风险的措施。 可扩大国际基础设施,为国际层面提供更多主权。 这有助于协调军备控制工作。 也可以设计专门用于纳米技术的国际机构(可能类似于国际原子能机构IAEA)或一般的军备控制。 人们也可以共同在防御技术方面取得不同的技术进步,这是球员通常应该支持的政策。 负责任纳米技术中心也提出了一些技术限制。 提高技术能力的透明度可能是控制武器的另一个重要推动者。

Grey goo是另一个灾难性场景,由Eric Drexler在其1986年出版的“创造的引擎”一书中提出,并成为主流媒体和小说的主题。 这种情况涉及微型自我复制机器人,它使用整个生物圈作为能量和构建块的来源。 然而,如今,包括德雷克斯勒在内的纳米技术专家对这种情况进行了诋毁。 根据菲尼克斯的说法,“所谓的灰色粘性物质只能是故意和困难的工程过程的产物,而不是意外”。

战争与大规模杀伤
最常探索的情景是核战和世界末日装置。 虽然每年发生核战争的可能性很小,但Martin Hellman教授从长远来看已将其描述为不可避免; 除非概率接近零,否则不可避免地会有一天文明的运气耗尽。 在古巴导弹危机期间,美国总统约翰·肯尼迪估计核战争的几率“在三分之一甚至三分之一”。 美国和俄罗斯共拥有14,700枚核武器,全世界估计共有15,700枚核武器。 除核之外,对人类的其他军事威胁包括生物战(BW)。 相比之下,化学战虽然能够造成多次局部灾难,但却不可能形成全球性的灾难。

核战争可能产生前所未有的人类死亡人数和栖息地破坏。 引爆大量核武器将对气候产生直接的,短期的和长期的影响,导致寒冷的天气,减少阳光和光合作用,这可能在先进文明中产生重大的动荡。 然而,虽然民众认为有时将核战争视为“世界末日”,但专家认为核战争导致人类灭绝的可能性很小。 1982年,布莱恩·马丁估计,美苏核交换可能直接杀死400-4.5亿美元,主要是在美国,欧洲和俄罗斯,并且在这些地区通过后续后果可能会产生数亿美元。 人类未来研究所的一项调查估计,到2100年,战争灭绝的可能性为4%,核战争灭绝的可能性为1%。

世界人口与农业危机

20世纪,由于医疗发展和绿色革命等农业生产力的大幅提高,人口迅速增加。 1950年至1984年,随着绿色革命改变了全球农业,世界粮食产量增加了250%。 农业绿色革命帮助粮食生产与世界人口增长保持同步,或实际实现人口增长。 绿色革命的能量是由化肥(天然气),农药(油)和碳氢化合物燃料灌溉的化石燃料提供的。 康奈尔大学生态与农业教授David Pimentel和国家食品与营养研究所(INRAN)高级研究员Mario Giampietro在其1994年的食品,土地,人口和美国经济研究中列出了美国最大的人口可持续经济2亿。 该研究称,为了实现可持续经济和避免灾难,美国必须将其人口减少至少三分之一,世界人口将减少三分之二。

这项研究的作者认为,所提到的农业危机将在2020年后开始对世界产生影响,并将在2050年后变得至关重要。地质学家Dale Allen Pfeiffer声称,未来几十年可能会出现螺旋式的食品价格而没有缓解和大规模的饥饿。从未经历过的全球水平。

小麦是人类生产第三大谷物。 现存的真菌感染如Ug99(一种茎锈病)可导致大多数现代品种100%的作物损失。 很少或根本没有治疗,感染会在风中蔓延。 如果世界上的大型粮食产区受到感染,随之而来的小麦供应危机将导致价格飙升和其他食品短缺。

风险认知
根据Eliezer Yudkowsky的观点,许多认知偏差可以影响个人和群体考虑全球灾害风险重要性的方式,包括对范围不敏感,启发式可用性,代表性偏差,影响启发式以及过度自信的影响。 例如,对范围的不敏感导致人们更多地关注个人威胁,而不是那些针对较大群体的威胁(这就是为什么他们对利他主义的贡献与问题的严重程度不成比例); 这就是为什么他们不认为人类的灭绝是一个应该如此严重的问题。 同样,代表性偏见使他们最大限度地减少与他们所知道的那些关系不大的灾难,并假设他们造成的损害不会更严重。

人们经常注意到,上面提到的大多数人为风险通常都与古老的神话相对应,普罗米修斯在潘多拉的神话中,以及最近巫师的学徒中最具代表性的神话。 天启的四个骑士的象征意义,最后三个代表性的战争,饥荒和死亡,已经在旧约中作为上帝对大卫王提供的不舒服的选择。 机器起义的各种风险出现在Golem的神话中,并与生物技术相结合,出现在Frankenstein的怪物故事中。 另一方面,有人提出,各种宗教传统的灾难叙述(它们最常与神灵的愤怒有关)将与真实灾难的记忆相对应(例如,洪水与重新连接海洋有关)马尔马拉与黑海); 在灾变相干(连贯的灾变)的名义下,Victor Clube和Bill Napier提出了这样一个假设,即灾难性的流星雨已经产生了许多宇宙论的神话,包括所多玛和蛾摩拉的毁灭历史(论文也由Marie-Agnes辩护) Courty)对启示录的描述; 然而,他们的想法被科学界广泛接受。

这些“神话”解释的存在,以及世界上众多的世界末日预言15,促进了部分或全部拒绝考虑这些灾害风险的现象,即卡桑德拉综合症:人为风险通过将它们归因于非理性恐惧而最小化,神话中描述的灾难被记忆的无知和变形所夸大。

对人类造成的风险的分析遭受两种相反的偏见:举报人倾向于夸大风险,甚至以预防原则的名义谴责想象中的风险; 强大的经济利益试图扭转最小化与其活动相关的风险,例如研究所Heartland的案例,以及更广泛地分析商业怀​​疑中概述的虚假信息策略。

Jared Diamond对20世纪黄金时代的神话进行了理性的诠释,终于发现一些灾难(尼克博斯特罗姆的“倒塌”)可能会成为缺乏记忆历史的未被发现的公司; 就像他解释了复活节岛居民遭受的生态灾难一样。

预防和预防
已经提出了关于地球边界的全球治理概念作为减少灾害风险的方法。 特别是,地球工程领域设想操纵全球环境以对抗大气成分的人为变化。 已经探索了综合食物储存和保护技术,但它们的成本很高,并且可能加剧营养不良的后果。 David Denkenberger和Joshua Pearce建议使用各种替代食品来降低与全球灾难相关的饥饿风险,例如核冬天或突然的气候变化,例如将生物量(树木和木材)转化为可食用产品; 但是,在这一领域需要取得很大进展,因此这些方法可以让大部分人口生存下来。 其他降低风险的建议,例如处理影响风险的小行星偏转策略或核裁军,在经济上或政治上都难以实施。 最后,空间的殖民化是另一个提出面对存在风险时增加生存机会的建议,但这种目前无法获得的解决方案无疑需要大规模使用等等。工程。

实际单独或集体采取的预防措施包括:

建立粮食储备(计划数年)和生存者在建立反原住房等框架内建立的其他资源。

斯瓦尔巴特世界种子保护区是挪威斯匹次卑尔根岛上的地下保护区,旨在保护世界上所有粮食作物的种子安全,从而保护遗传多样性; 其中一些种子应保存数千年。 2017年5月,由于全球变暖,保险库充斥着永久冻土融化,而不会损害种子供应。

分析和评论
前几节中详述的风险的重要性很少被否定,即使人类面临的风险往往最小化; 然而,尼克博斯特罗姆的分析受到了几个不同观点的批评。

技术评论
尼克博斯特罗姆在他的书中提到的许多风险被认为是夸大的(甚至是虚构的),或者对应于如此巨大的时间尺度,将它们与几乎直接的威胁分组似乎有点荒谬。 此外,对于这种情况,概率,希望或效用的计算是困难的或不明确的,例如,如天启论证所引用的悖论,以及尼克博斯特罗姆承认的那样。 本人。 特别是,他提出了一个道德论证,声称我们的后代中过多的人注定要通过一种存在主义的灾难来证明虚无,他们采用一切可能的方法来减少事故发生的可能性; 然而,它所依据的计算是有争议的,这个论点可能只是一个谬论。

Nick Bostrom和Max Tegmark于2005年发表了对整个宇宙不稳定风险的分析。 无论他们的计算是否有效(趋向于表明风险很低),人们可能想知道是否真的有意义来谈论灾难,没有人会提前被警告,谁也不会留下任何观察者; 在类似的关于连锁反应风险点燃整个氛围的讨论中,一位朋友对理查德汉明的焦虑做出了回应:“别担心,汉明,没有人会责怪你”。

哲学立场
尼克博斯特罗姆的分析基于超人主义,这是一种主张利用科学和技术改善人类身心特征的意识形态; 他认为所有可以阻止人类充分发挥其潜力的是存在风险。

这一立场受到了严厉的批评,部分原因在于它导致了对人类所代表的假设未来价值所依赖的价值观的否定。 史蒂夫富勒特别指出,如果全球灾难不会摧毁全人类,幸存者可能会在某些情况下合理地考虑他们的情况有所改善。