Anthropogenes globales katastrophales Risiko

Ein globales katastrophales Risiko ist ein hypothetisches zukünftiges Ereignis, das das menschliche Wohlergehen auf globaler Ebene schädigen und sogar die moderne Zivilisation lähmen oder zerstören könnte. Ein Ereignis, das zum Aussterben des Menschen führen oder das Potenzial der Menschheit dauerhaft und drastisch einschränken könnte, ist als existenzielles Risiko bekannt.

Zu den möglichen globalen Katastrophenrisiken gehören vom Menschen verursachte Risiken (Technologie, Governance, Klimawandel) sowie natürliche oder externe Risiken. Beispiele für Technologierisiken sind feindliche künstliche Intelligenz und zerstörerische Biotechnologie oder Nanotechnologie. Unzureichende oder böswillige globale Governance schafft Risiken im sozialen und politischen Bereich, wie etwa einen globalen Krieg, einschließlich nuklearer Holocaust, Bioterrorismus mit gentechnisch veränderten Organismen, Cyberterrorismus, der kritische Infrastrukturen wie das Stromnetz zerstört; oder das Versagen, eine natürliche Pandemie zu bewältigen. Probleme und Risiken im Bereich der Governance von Erdsystemen umfassen die globale Erwärmung, Umweltzerstörung, einschließlich des Aussterbens von Arten, Hungersnot als Folge ungleicher Ressourcenverteilung, menschliche Überbevölkerung, Missernten und nicht nachhaltige Landwirtschaft. Beispiele für nicht-anthropogene Risiken sind ein Asteroideneinschlag, ein Supervulkanausbruch, ein tödlicher Gammastrahlenausbruch, ein geomagnetischer Sturm, der elektronische Geräte zerstört, natürlicher langfristiger Klimawandel oder feindliches außerirdisches Leben.

Klassifikationen

Global katastrophisch vs. existenziell
Philosoph Nick Bostrom klassifiziert Risiken nach ihrem Umfang und ihrer Intensität. Ein „globales Katastrophenrisiko“ ist jedes Risiko, das zumindest „global“ ist und in seiner Intensität nicht subjektiv „nicht wahrnehmbar“ ist. Diejenigen, die zumindest „generationenübergreifend“ sind (alle zukünftigen Generationen betreffen), sind im Umfang und „terminal“ in der Intensität als existenzielle Risiken eingestuft. Während ein globales katastrophales Risiko die große Mehrheit des Lebens auf der Erde töten könnte, könnte sich die Menschheit dennoch potenziell erholen. Ein existenzielles Risiko dagegen zerstört entweder die Menschheit (und vermutlich alle außer den rudimentärsten Arten von nichtmenschlichen Lebensformen und / oder pflanzlichen Lebewesen) vollständig oder verhindert zumindest jede Möglichkeit, dass sich die Zivilisation erholt. Bostrom hält existenzielle Risiken für weitaus bedeutender.

In „Catastrophe: Risk and Response“ führt Richard Posner Ereignisse heraus, die einen „völligen Umsturz oder Ruin“ auf globaler statt auf „lokaler oder regionaler Ebene“ herbeiführen. Posner hebt solche Ereignisse hervor, die aus Kosten-Nutzen-Gründen besondere Beachtung verdienen, weil sie das Überleben der gesamten Menschheit direkt oder indirekt gefährden könnten. Posners Ereignisse umfassen Meteoreffekte, galoppierende globale Erwärmung, graue Schmiere, Bioterrorismus und Teilchenbeschleuniger-Unfälle.

Forscher haben Schwierigkeiten, direkt in der Nähe der menschlichen Ausrottung zu studieren, da die Menschheit noch nie zuvor zerstört wurde. Dies bedeutet zwar nicht, dass dies in Zukunft nicht der Fall sein wird, aber es macht die Modellierung existenzieller Risiken schwierig, teilweise aufgrund von Voreingenommenheit bei Überlebenden.

Andere Klassifikationen
Bostrom identifiziert vier Arten von existenziellem Risiko. „Pony“ sind plötzliche Katastrophen, die zufällig oder absichtlich sein können. Er denkt, dass die wahrscheinlichsten Ursachen für Knalle der bösartige Einsatz von Nanotechnologie, Atomkrieg und die Möglichkeit sind, dass das Universum eine Simulation ist, die enden wird. „Crunches“ sind Szenarien, in denen die Menschheit überlebt, aber die Zivilisation langsam zerstört wird. Die wahrscheinlichsten Ursachen dafür sind seiner Meinung nach die Erschöpfung der natürlichen Ressourcen, eine stabile globale Regierung, die den technologischen Fortschritt verhindert, oder dysgenischer Druck, der die durchschnittliche Intelligenz verringert. „Shrieks“ sind unerwünschte Zukünfte. Wenn zum Beispiel ein einzelner Verstand seine Fähigkeiten durch die Verschmelzung mit einem Computer erweitert, könnte er die menschliche Zivilisation beherrschen. Bostrom glaubt, dass dieses Szenario am wahrscheinlichsten ist, gefolgt von einer fehlerhaften Superintelligenz und einem repressiven totalitären Regime. „Wimmern“ ist der allmähliche Niedergang der menschlichen Zivilisation oder der aktuellen Werte. Er glaubt, dass die wahrscheinlichste Ursache eine Änderung der moralischen Präferenz sein würde, gefolgt von einer außerirdischen Invasion.

Moralische Bedeutung des existenziellen Risikos

Einige Wissenschaftler haben sich entschieden dafür eingesetzt, das existenzielle Risiko zu reduzieren, weil es künftigen Generationen großen Nutzen bringt. Derek Parfit argumentiert, dass das Aussterben ein großer Verlust wäre, da unsere Nachkommen möglicherweise vier Milliarden Jahre überleben könnten, bevor die Ausbreitung der Sonne die Erde unbewohnbar macht. Nick Bostrom argumentiert, dass es noch mehr Möglichkeiten gibt, den Weltraum zu kolonisieren. Wenn zukünftige Menschen den Weltraum besiedeln, könnten sie in der Lage sein, eine sehr große Anzahl von Menschen auf anderen Planeten zu unterstützen, die möglicherweise Billionen von Jahren überleben können. Eine existenzielle Risikoreduktion um nur einen geringen Betrag hätte daher einen sehr großen Einfluss auf die zu erwartende Anzahl von zukünftigen Personen.

Exponentielle Diskontierung könnte diese zukünftigen Vorteile viel weniger signifikant machen. Jason Matheny hat jedoch argumentiert, dass eine solche Diskontierung bei der Bewertung des Werts der existenziellen Risikoreduktion nicht angemessen ist.

Einige Ökonomen haben die Bedeutung globaler Katastrophenrisiken diskutiert, jedoch keine existenziellen Risiken. Martin Weitzman argumentiert, dass der größte Teil der erwarteten wirtschaftlichen Schäden durch den Klimawandel von der geringen Chance herrühren könnte, dass die Erwärmung die mittleren Erwartungen weit übertrifft und zu katastrophalen Schäden führt. Richard Posner hat argumentiert, dass wir im Allgemeinen viel zu wenig über kleine, schwer einzuschätzende Risiken von Großkatastrophen tun.

Zahlreiche kognitive Verzerrungen können das Urteilsvermögen der Menschen über die Bedeutung von existenziellen Risiken beeinflussen, einschließlich der Risikounempfindlichkeit, der hyperbolischen Diskontierung, der Verfügbarkeitsheuristik, des Verbindungsfehlers, der Affektheuristik und des Overconfidence-Effekts.

Umfanglosigkeit beeinflusst, wie schlecht Menschen das Aussterben der menschlichen Rasse betrachten. Wenn zum Beispiel Menschen dazu motiviert werden, Geld für altruistische Zwecke zu spenden, steigt die Menge, die sie zu geben bereit sind, nicht linear mit dem Ausmaß des Problems: Menschen sind ungefähr so ​​besorgt, dass etwa 200.000 Vögel in Öl stecken bleiben, da sie etwa 2.000 sind. In ähnlicher Weise sind die Menschen oft stärker besorgt über Bedrohungen für Einzelpersonen als für größere Gruppen.

Mögliche Risikoquellen
Einige katastrophale Risikoquellen sind natürlich, wie Meteoreinschläge oder Supervulkane. Einige davon haben in der Vergangenheit zu Massensterben geführt. Auf der anderen Seite sind einige Risiken vom Menschen verursacht, wie die globale Erwärmung, Umweltschäden, technische Pandemien und Atomkrieg.

Anthropogen
Das Cambridge-Projekt der Universität Cambridge stellt fest, dass die „größten Bedrohungen“ für die menschliche Spezies vom Menschen verursacht werden; sie sind künstliche Intelligenz, globale Erwärmung, Atomkrieg und Rogue-Biotechnologie. Das „Future of Humanity Institute“ stellt außerdem fest, dass das Aussterben von Menschen eher aus anthropogenen Ursachen als aus natürlichen Ursachen resultiert.

Künstliche Intelligenz
Es wurde vorgeschlagen, dass das Lernen von Computern, die schnell superintelligent werden, unvorhergesehene Aktionen auslösen kann oder dass Roboter die Menschheit überlisten würden (ein technologisches Singularitätsszenario). Aufgrund seiner außergewöhnlichen Planungs- und Organisationsfähigkeiten und der Bandbreite neuartiger Technologien, die es entwickeln könnte, ist es möglich, dass die erste Superintelligenz der Erde schnell unübertroffen und konkurrenzlos wird: denkbar wäre es, fast jedes mögliche Ergebnis herbeizuführen und zu sein in der Lage, praktisch jeden Versuch zu vereiteln, der die Erreichung seiner Ziele zu verhindern drohte. Es könnte alle anderen herausfordernden rivalisierenden Intellekte eliminieren und ausradieren, wenn es sich dafür entscheiden würde; alternativ könnte es sie manipulieren oder dazu überreden, ihr Verhalten gegenüber ihren eigenen Interessen zu ändern, oder sie könnte lediglich ihre Einmischungsversuche behindern. In Bostroms Buch Superintelligence: Paths, Danger, Strategies definiert er dies als Kontrollproblem. Der Physiker Stephen Hawking, der Microsoft-Gründer Bill Gates und der Gründer von SpaceX, Elon Musk, haben diese Befürchtungen wiederholt, und Hawking hat theoretisiert, dass dies „das Ende der Menschheit bedeuten könnte“.

Im Jahr 2009 veranstaltete der Verein zur Förderung künstlicher Intelligenz (AAAI) eine Konferenz, um zu diskutieren, ob Computer und Roboter in der Lage sein könnten, irgendeine Art von Autonomie zu erlangen, und inwieweit diese Fähigkeiten eine Gefahr darstellen könnten. Sie stellten fest, dass einige Roboter verschiedene Formen von Halb-Autonomie erworben haben, einschließlich der Fähigkeit, eigene Kraftquellen zu finden und selbständig Ziele für den Angriff mit Waffen wählen zu können. Sie stellten auch fest, dass einige Computerviren der Ausscheidung entgehen können und „Kakerlakenintelligenz“ erreicht haben. Sie stellten fest, dass Selbstwahrnehmung, wie sie in Science-Fiction dargestellt wird, wahrscheinlich unwahrscheinlich ist, aber dass es andere potenzielle Gefahren und Fallstricke gibt. Verschiedene Medienquellen und wissenschaftliche Gruppen haben getrennte Trends in verschiedenen Bereichen festgestellt, die zusammen zu größeren robotergestützten Funktionen und Autonomie führen könnten und die einige inhärente Bedenken aufwerfen.

Eine Umfrage unter KI-Experten schätzt, dass die Wahrscheinlichkeit, dass maschinelles Lernen auf menschlicher Ebene einen „extrem schlechten (zB menschliche Aussterben)“ Langzeit-Effekt auf die Menschheit hat, bei 5% liegt. Eine Studie des Future of Humanity Institute schätzt eine Wahrscheinlichkeit von 5% für das Aussterben durch Superintelligenz bis zum Jahr 2100. Eliezer Yudkowsky glaubt, dass Risiken durch künstliche Intelligenz schwerer vorhersagbar sind als alle anderen bekannten Risiken aufgrund von Verzerrungen durch Anthropomorphismus. Da Menschen ihre Urteile über künstliche Intelligenz auf ihre eigene Erfahrung stützen, behauptet er, dass sie die potenzielle Macht der KI unterschätzen.

Biotechnologie
Biotechnologie kann ein globales katastrophales Risiko in Form von biotechnologischen Organismen (Viren, Bakterien, Pilze, Pflanzen oder Tiere) darstellen. In vielen Fällen ist der Organismus ein Erreger von Menschen, Nutztieren, Ernten oder anderen Organismen, auf die wir angewiesen sind (zB Bestäuber oder Darmbakterien). Jeder Organismus, der in der Lage ist, Ökosystemfunktionen katastrophal zu stören, z. B. stark konkurrierende Unkräuter, die essenzielle Nutzpflanzen übertreffen, birgt jedoch ein biotechnologisches Risiko.

Eine biotechnologische Katastrophe kann durch die versehentliche Freisetzung eines gentechnisch veränderten Organismus aus kontrollierten Umgebungen, durch die geplante Freisetzung eines solchen Organismus, der sich dann als unvorhergesehene und katastrophale Wechselwirkung mit essentiellen natürlichen oder Agrarökosystemen herausstellt, oder durch absichtliche Verwendung von biologischen verursacht werden Agenten in der biologischen Kriegsführung, Bioterrorismusangriffe. Pathogene können absichtlich oder unabsichtlich genetisch modifiziert werden, um Virulenz und andere Eigenschaften zu verändern. Zum Beispiel änderte eine Gruppe australischer Forscher unabsichtlich die Eigenschaften des Mäusepocken-Virus, während sie versuchten, ein Virus zu entwickeln, um Nagetiere zu sterilisieren. Das modifizierte Virus wurde sogar in geimpften und natürlich resistenten Mäusen höchst letal. Die technologischen Mittel zur genetischen Veränderung von Virusmerkmalen dürften in Zukunft häufiger verfügbar sein, wenn sie nicht ordnungsgemäß reguliert werden.

Terroristische Anwendungen der Biotechnologie sind historisch selten gewesen. Inwieweit dies auf mangelnde Fähigkeiten oder Motivation zurückzuführen ist, ist nicht gelöst. Angesichts der aktuellen Entwicklung ist jedoch in Zukunft mit einem erhöhten Risiko durch neuartige, veränderte Pathogene zu rechnen. Im Biotechnologiesektor wurde ein exponentielles Wachstum beobachtet, und Noun und Chyba sagen voraus, dass dies in den kommenden Jahrzehnten zu einem erheblichen Anstieg der biotechnologischen Fähigkeiten führen wird. Sie argumentieren, dass Risiken aus biologischer Kriegsführung und Bioterrorismus sich von nuklearen und chemischen Bedrohungen unterscheiden, da biologische Krankheitserreger einfacher zu massenproduzieren sind und ihre Produktion schwer zu kontrollieren ist (insbesondere, da die technologischen Fähigkeiten auch für einzelne Nutzer verfügbar werden). Eine Studie des Future of Humanity Institute schätzte eine 2% ige Wahrscheinlichkeit für das Aussterben von manipulierten Pandemien bis zum Jahr 2100.

Noun und Chyba schlagen drei Kategorien von Maßnahmen vor, um Risiken durch Biotechnologie und natürliche Pandemien zu reduzieren: Regulierung oder Prävention potenziell gefährlicher Forschung, verbesserte Erkennung von Ausbrüchen und Entwicklung von Einrichtungen zur Minderung von Krankheitsausbrüchen (z. B. bessere und / oder weiter verbreitete Impfstoffe).

Cyber ​​Attacke
Cyberangriffe haben das Potenzial, alles von persönlichen Daten bis hin zu Stromnetzen zu zerstören. Christine Peterson, Mitbegründerin und ehemalige Präsidentin des Foresight Institute, glaubt, dass ein Cyberangriff auf Stromnetze ein katastrophales Risiko darstellen könnte.

Erderwärmung
Die globale Erwärmung bezieht sich auf die Erwärmung, die seit dem 19. Jahrhundert durch Menschen verursacht wurde. Prognosen für den künftigen Klimawandel deuten auf eine weitere globale Erwärmung, einen Anstieg des Meeresspiegels und eine Zunahme der Häufigkeit und Schwere einiger extremer Wetterereignisse und wetterbedingter Katastrophen hin. Zu den Folgen der globalen Erwärmung gehören der Verlust der Artenvielfalt, Stress für bestehende Systeme zur Erzeugung von Nahrungsmitteln, verstärkte Verbreitung bekannter Infektionskrankheiten wie Malaria und rasche Mutation von Mikroorganismen. Im November 2017 gaben 15.364 Wissenschaftler aus 184 Ländern an, dass steigende Treibhausgasemissionen aus der Nutzung fossiler Brennstoffe, das Bevölkerungswachstum, die Entwaldung und die Übernutzung von Flächen für die landwirtschaftliche Produktion, insbesondere von Wiederkäuern für den Fleischkonsum, zunehmen Wege, die eine Zunahme menschlichen Elends in den kommenden Jahrzehnten vorhersagen.

Umweltkatastrophe
Eine Umwelt- oder Umweltkatastrophe wie das Versagen der Weltwirtschaft und der Kollaps von Ökosystemleistungen könnte durch die gegenwärtigen Trends von Überbevölkerung, wirtschaftlicher Entwicklung und nicht nachhaltiger Landwirtschaft ausgelöst werden. Die meisten Umweltszenarien beinhalten eines oder mehrere der folgenden Ereignisse: Holozän-Extinktion, Wasserknappheit, die dazu führen könnte, dass etwa die Hälfte der Erdbevölkerung ohne sauberes Trinkwasser, Bestäuberabnahme, Überfischung, massive Entwaldung, Desertifikation, Klimawandel oder massiv ist Wasserverschmutzungsepisoden. Im frühen 21. Jahrhundert entdeckt, ist eine Bedrohung in dieser Richtung Kolonie-Kollaps-Störung, ein Phänomen, das das bevorstehende Aussterben der westlichen Honigbiene vorwegnehmen könnte. Da die Biene eine wichtige Rolle bei der Bestäubung spielt, würde ihr Aussterben die Nahrungskette erheblich stören.

In einem im Oktober 2017 in The Lancet veröffentlichten Bericht heißt es, dass giftige Luft, Wasser, Böden und Arbeitsplätze im Jahr 2015 insgesamt für 9 Millionen Todesfälle weltweit verantwortlich seien, insbesondere durch Luftverschmutzung, die durch erhöhte Anfälligkeit für nicht-infektiöse Krankheiten, wie z Herzkrankheit, Schlaganfall und Lungenkrebs. Der Bericht warnte, dass die Verschmutzungskrise „den Umfang der Verschmutzung, die die Erde tragen kann, übersteigt“ und „das Überleben der menschlichen Gesellschaften bedroht“.

Erschöpfung der Mineralressourcen
Der rumänische amerikanische Ökonom Nicholas Georgescu-Roegen, ein Vorkämpfer der Ökonomie und Begründer der ökologischen Ökonomie, hat argumentiert, dass die Tragfähigkeit der Erde – also die Fähigkeit der Erde, die menschliche Bevölkerung und den Konsum zu erhalten – irgendwann in Zukunft abnehmen wird weil der endliche Vorrat an Bodenschätzen der Erde gegenwärtig extrahiert und genutzt wird; und folglich, dass die Weltwirtschaft als Ganzes auf einen unvermeidlichen zukünftigen Zusammenbruch zusteuert, der zum Untergang der menschlichen Zivilisation selbst führt. 303f Der Ökologische Ökonom und Steady-State-Theoretiker Herman Daly, ein Student von Georgescu-Roegen, hat dasselbe vorgetragen argumentieren, dass „… alles, was wir tun können, ist, zu vermeiden, die begrenzte Fähigkeit der Schöpfung zu verschwenden, um gegenwärtiges und zukünftiges Leben [auf der Erde] zu unterstützen.“: 370

Seit Georgescu-Roegen und Daly diese Ansichten veröffentlicht haben, diskutieren verschiedene Wissenschaftler auf diesem Gebiet die existentielle Unmöglichkeit, den endlichen Vorrat an Bodenschätzen der Erde gleichmäßig auf eine unbekannte Anzahl gegenwärtiger und zukünftiger Generationen zu verteilen. Diese Anzahl von Generationen wird uns wahrscheinlich unbekannt bleiben, da es im Voraus kaum möglich ist zu wissen, ob oder wann die Menschheit irgendwann vom Aussterben bedroht sein wird. In der Tat wird jede erdenkliche intertemporale Verteilung der Bestände unweigerlich mit einem allgemeinen wirtschaftlichen Niedergang an einem zukünftigen Punkt enden

Experimentelle Technologie Unfall
Nick Bostrom schlug vor, dass die Menschheit im Streben nach Wissen unbeabsichtigt ein Gerät erschaffen könnte, das die Erde und das Sonnensystem zerstören könnte. Untersuchungen in der Kern- und Hochenergiephysik könnten ungewöhnliche Bedingungen mit katastrophalen Folgen schaffen. Zum Beispiel waren Wissenschaftler besorgt, dass der erste Atomtest die Atmosphäre entzünden könnte. In jüngerer Zeit befürchteten andere, dass der RHIC oder der Large Hadron Collider eine globale Katastrophe mit Kettenreaktion auslösen könnte, die schwarze Löcher, Strangelets oder falsche Vakuumzustände beinhaltet. Diese besonderen Bedenken wurden widerlegt, aber die allgemeine Besorgnis bleibt bestehen.

Die Biotechnologie könnte zur Entstehung einer Pandemie führen, die chemische Kriegsführung könnte extrem werden, die Nanotechnologie könnte zu grauer Schmiere führen, in der außer Kontrolle geratene Roboter alles Lebendige auf der Erde konsumieren und mehr von sich selbst aufbauen – in beiden Fälle, entweder absichtlich oder durch Zufall.

Nanotechnologie
Viele nanoskalige Technologien sind in Entwicklung oder werden derzeit verwendet. Die einzige, die ein signifikantes globales katastrophales Risiko darzustellen scheint, ist die molekulare Herstellung, eine Technik, die es ermöglicht, komplexe Strukturen mit atomarer Präzision zu bauen. Molecular Manufacturing erfordert bedeutende Fortschritte in der Nanotechnologie, aber sobald sie erreicht sind, können hochentwickelte Produkte zu geringen Kosten und in großen Mengen in Nanofabriken mit Desktop-Proportionen hergestellt werden. Wenn Nanofabriken in der Lage sind, andere Nanofabriken zu produzieren, kann die Produktion nur durch relativ reichhaltige Faktoren wie Inputmaterialien, Energie und Software begrenzt werden.

Molecular Manufacturing könnte genutzt werden, um neben vielen anderen Produkten auch hochentwickelte, langlebige Waffen zu produzieren. Mit kompakten Computern und Motoren ausgestattet, könnten diese zunehmend autonom sein und eine große Bandbreite an Fähigkeiten aufweisen.

Chris Phoenix und Treder klassifizieren katastrophale Risiken der Nanotechnologie in drei Kategorien:

Von der Weiterentwicklung anderer Technologien wie KI und Biotechnologie.
Durch die Massenproduktion potenziell gefährlicher Produkte, die eine Risikodynamik verursachen (z. B. Wettrüsten), je nachdem, wie sie eingesetzt werden.
Von unkontrollierten sich selbst erhaltenden Prozessen mit destruktiven Effekten.

Mehrere Forscher stellen fest, dass der größte Teil des Risikos der Nanotechnologie aus dem Potenzial besteht, zu Krieg, Rüstungswettlauf und zerstörerischer globaler Regierung zu führen. Es wurden mehrere Gründe dafür angeführt, warum die Verfügbarkeit von Nanotech-Waffen mit großer Wahrscheinlichkeit zu instabilen Wettrüsten führen kann (im Vergleich zu z. B. nuklearen Wettrüsten):

Eine große Anzahl von Spielern könnte versucht sein, an dem Rennen teilzunehmen, da die Schwelle dafür niedrig ist;
Die Fähigkeit, Waffen mit molekularer Herstellung herzustellen, wird billig und leicht zu verstecken sein;
Daher kann ein Mangel an Einsicht in die Fähigkeiten der anderen Parteien die Spieler dazu verleiten, aus Vorsicht zu bewaffnen oder Präventivschläge zu setzen;
Molecular Manufacturing kann die Abhängigkeit vom internationalen Handel verringern, ein potenzieller friedensfördernder Faktor;
Angriffskriege können eine kleinere wirtschaftliche Bedrohung für den Aggressor darstellen, da die Herstellung billig ist und Menschen möglicherweise nicht auf dem Schlachtfeld benötigt werden.
Da die Selbstregulierung durch alle staatlichen und nichtstaatlichen Akteure schwer zu erreichen ist, wurden Maßnahmen zur Minderung von Kriegsrisiken hauptsächlich im Bereich der internationalen Zusammenarbeit vorgeschlagen. Die internationale Infrastruktur könnte erweitert werden, um der internationalen Ebene mehr Souveränität zu verleihen. Dies könnte helfen, die Bemühungen zur Rüstungskontrolle zu koordinieren. Internationale Institutionen, die sich speziell der Nanotechnologie widmen (vielleicht analog zur Internationalen Atomenergiebehörde IAEA) oder der allgemeinen Rüstungskontrolle, können ebenfalls konzipiert werden. Bei defensiven Technologien kann man auch einen unterschiedlichen technologischen Fortschritt erzielen, eine Politik, die die Spieler normalerweise bevorzugen sollten. Das Zentrum für verantwortungsvolle Nanotechnologie schlägt auch einige technische Einschränkungen vor. Eine verbesserte Transparenz hinsichtlich der technologischen Fähigkeiten könnte ein weiterer wichtiger Faktor für die Rüstungskontrolle sein.

Gray Goo ist ein weiteres katastrophales Szenario, das von Eric Drexler in seinem Buch Engines of Creation von 1986 vorgeschlagen wurde und ein Thema in den Mainstream-Medien und Fiktion war. Bei diesem Szenario handelt es sich um winzige selbstreplizierende Roboter, die die gesamte Biosphäre als Energiequelle und Bausteine ​​verbrauchen. Heutzutage diskreditieren Nanotechnologieexperten – darunter Drexler – das Szenario. Ein „grauer Schmiere“ könne nur das Ergebnis eines bewussten und schwierigen technischen Prozesses sein, kein Zufall.

Kriegsführung und Massenvernichtung
Die am häufigsten untersuchten Szenarien sind Atomkrieg und Doomsday-Geräte. Obwohl die Wahrscheinlichkeit eines Atomkriegs pro Jahr gering ist, hat Professor Martin Hellman es auf lange Sicht als unvermeidlich beschrieben; es sei denn, die Wahrscheinlichkeit nähert sich der Null, wird unweigerlich ein Tag kommen, an dem das Glück der Zivilisation ausläuft. Während der kubanischen Raketenkrise schätzte US-Präsident John F. Kennedy die Wahrscheinlichkeit eines Atomkrieges auf „irgendwo zwischen einem von drei und sogar“. Die Vereinigten Staaten und Russland haben ein kombiniertes Arsenal von 14.700 Atomwaffen, und es gibt weltweit schätzungsweise 15.700 Atomwaffen. Andere militärische Bedrohungen für die Menschheit schließen über nukleare hinaus biologische Kriegsführung (BW) ein. Im Gegensatz dazu ist es unwahrscheinlich, dass die chemische Kriegsführung, obwohl sie in der Lage ist, mehrere lokale Katastrophen zu verursachen, eine globale Katastrophe hervorruft.

Der Atomkrieg könnte beispiellose menschliche Todesopfer und Zerstörung von Lebensräumen nach sich ziehen. Das Detonieren einer großen Anzahl von Nuklearwaffen hätte unmittelbare, kurzfristige und langfristige Auswirkungen auf das Klima, was zu kaltem Wetter und verminderter Sonneneinstrahlung und Photosynthese führen würde, was in fortgeschrittenen Zivilisationen zu erheblichen Umwälzungen führen könnte. Während die Wahrnehmung der Öffentlichkeit manchmal den Atomkrieg als „das Ende der Welt“ betrachtet, weisen Experten eine geringe Wahrscheinlichkeit einer Auslöschung der Menschheit durch den Atomkrieg zu. Im Jahr 1982 schätzte Brian Martin, dass ein US-sowjetischer Nuklear-Austausch 400-450 Millionen direkt töten könnte, hauptsächlich in den Vereinigten Staaten, Europa und Russland, und vielleicht mehrere hundert Millionen mehr durch Folgefehler in diesen Gebieten. Eine Studie des Future of Humanity Institute schätzte die Wahrscheinlichkeit, bis zum Jahr 2100 aus dem Krieg aussterben zu können, mit einer Wahrscheinlichkeit von 1%, aus dem Atomkrieg auszusteigen.

Weltbevölkerung und Agrarkrise

Im 20. Jahrhundert kam es aufgrund der medizinischen Entwicklungen und der massiven Zunahme der landwirtschaftlichen Produktivität wie der Grünen Revolution zu einem rapiden Anstieg der Bevölkerung. Zwischen 1950 und 1984, als die Grüne Revolution die Landwirtschaft rund um den Globus veränderte, stieg die weltweite Getreideproduktion um 250%. Die Grüne Revolution in der Landwirtschaft half der Nahrungsmittelproduktion, mit dem weltweiten Bevölkerungswachstum Schritt zu halten oder das Bevölkerungswachstum tatsächlich zu ermöglichen. Die Energie für die Grüne Revolution wurde durch fossile Brennstoffe in Form von Düngemitteln (Erdgas), Pestiziden (Öl) und Kohlenwasserstoff-Bewässerung zur Verfügung gestellt. David Pimentel, Professor für Ökologie und Landwirtschaft an der Cornell University, und Mario Giampietro, Senior Researcher am National Research Institute on Food and Nutrition (INRAN), legen in ihrer Studie „Food, Land, Population und die US-Wirtschaft von 1994 die maximale US-Bevölkerung für eine nachhaltige Wirtschaft mit 200 Millionen. Um eine nachhaltige Wirtschaft zu erreichen und eine Katastrophe abzuwenden, müssen die Vereinigten Staaten ihre Bevölkerung um mindestens ein Drittel reduzieren, und die Weltbevölkerung muss um zwei Drittel reduziert werden, heißt es in der Studie.

Die Autoren der Studie glauben, dass die erwähnte Agrarkrise nach 2020 auf die Welt Auswirkungen haben wird und nach 2050 kritisch werden wird. Der Geologe Dale Allen Pfeiffer behauptet, dass in den kommenden Jahrzehnten die Preise für Nahrungsmittel ohne Erleichterung und massiven Hungertod steigen könnten globale Ebene wie nie zuvor erlebt.

Weizen ist das am dritthäufigsten produzierte Getreide der Menschheit. Bestehende Pilzinfektionen wie Ug99 (eine Art Stengelrost) können in den meisten modernen Sorten zu 100% Ernteverluste verursachen. Wenig oder keine Behandlung ist möglich und die Infektion breitet sich im Wind aus. Sollten sich die großen Getreideanbauflächen der Welt infizieren, würde die daraus resultierende Krise der Weizenverfügbarkeit zu Preisspitzen und Knappheit bei anderen Nahrungsmitteln führen.

Risikowahrnehmung
Laut Eliezer Yudkowsky können viele kognitive Verzerrungen die Art und Weise beeinflussen, in der Einzelpersonen und Gruppen die Bedeutung von globalen Katastrophenrisiken berücksichtigen, einschließlich Unempfindlichkeit gegenüber Reichweite, heuristischer Verfügbarkeit, Voreingenommenheit bei der Repräsentativität, Einfluss von Heuristiken und Überkonsistenz. Zum Beispiel führt die Unempfindlichkeit gegenüber dem Geltungsbereich dazu, dass Menschen sich häufiger mit individuellen Bedrohungen befassen als solche, die an größere Gruppen gerichtet sind (deshalb sind ihre Spenden für altruistische Zwecke nicht proportional zur Größenordnung des Problems); Deshalb betrachten sie das Aussterben der Menschheit nicht als ein so ernstes Problem, wie es sein sollte. In ähnlicher Weise führt die Repräsentativität dazu, dass sie Katastrophen minimieren, die wenig mit denen zu tun haben, die ihnen bewusst waren, und dass der Schaden, den sie verursachen, nicht viel ernster ist.

Es wurde oft bemerkt, dass die Mehrheit der oben erwähnten anthropogenen Risiken oft sehr alten Mythen entsprechen, denen von Prometheus, in Pandora und in jüngerer Zeit ist die des Zauberlehrlings die repräsentativste. Die Symbolik der vier Reiter der Apokalypse, der letzten drei Repräsentanten Krieg, Hungersnot und Tod, ist bereits im Alten Testament als die unbequeme Wahl Gottes an König David. Die verschiedenen Risiken einer Revolte der Maschinen erscheinen im Mythos des Golems und in Verbindung mit Biotechnologien in der Geschichte von Frankensteins Monster. Auf der anderen Seite wurde behauptet, dass Katastrophenerzählungen verschiedener religiöser Traditionen (wo sie am häufigsten mit dem Zorn der Gottheiten zusammenhängen) den Erinnerungen an reale Katastrophen entsprechen würden (zB würde die Flut mit der Wiederverbindung des Meeres verbunden sein) von Marmara mit dem Schwarzen Meer); Unter dem Namen Katastrophismus (kohärenter Katastrophismus) entwickelten Victor Clube und Bill Napier die Hypothese, dass kataklysmische Meteorschauer viele kosmologische Mythen hervorgebracht haben, die von der Geschichte der Zerstörung von Sodom und Gomorra (auch von Marie-Agnes verteidigt) stammen Höflich) zu den Beschreibungen der Offenbarung; Ihre Ideen werden jedoch von der wissenschaftlichen Gemeinschaft akzeptiert.

Die Existenz dieser „mythischen“ Interpretationen, sowie zahlreiche End-of-the-World-Prophezeiungen Nr. 15, erleichtert ein Phänomen der teilweisen oder vollständigen Weigerung, diese Katastrophenrisiken, bekannt als Cassandra-Syndrom, zu berücksichtigen: während die anthropogenen Risiken Durch die Zuschreibung irrationaler Ängste werden die in den Mythen beschriebenen Katastrophen durch die Ignoranz und die Deformation der Erinnerungen übertrieben beurteilt.

Die Analyse der von Menschen verursachten Risiken hat zwei gegensätzliche Tendenzen: Hinweisgeber neigen dazu, das Risiko des Gehörs zu übertreiben oder im Namen des Vorsorgeprinzips imaginäre Risiken anzuprangern. mächtige Wirtschaftsinteressen, die versuchen, die mit ihren Aktivitäten verbundenen Risiken umzukehren, wie dies beispielsweise im Fall des Instituts Heartland gezeigt wurde, und allgemeiner die Analyse von Desinformationsstrategien, die in The debt Merchants beschrieben sind.

Mit einer rationalen Interpretation des Mythos des Goldenen Zeitalters Nr. 20 wird Jared Diamond schließlich beobachtet, dass einige Katastrophen (die „Zusammenbrüche“ von Nick Bostrom) unerkannte Unternehmen erleiden können, die unter dem Mangel an einer ausreichenden Gedächtnisgeschichte leiden; So erklärt er die ökologische Katastrophe der Bewohner der Osterinsel.

Vorsichtsmaßnahmen und Prävention
Das Konzept der globalen Governance unter Berücksichtigung planetarer Grenzen wurde als Ansatz zur Reduzierung von Katastrophenrisiken vorgeschlagen. Der Bereich Geoengineering sieht insbesondere vor, die globale Umwelt zu manipulieren, um anthropogene Veränderungen in der Zusammensetzung der Atmosphäre zu bekämpfen. Umfassende Methoden zur Konservierung und Konservierung von Lebensmitteln wurden erforscht, aber ihre Kosten wären hoch und sie könnten die Folgen der Mangelernährung verschärfen. David Denkenberger und Joshua Pearce haben vorgeschlagen, eine Vielzahl von alternativen Lebensmitteln zu verwenden, um das Risiko von Hungerkatastrophen zu reduzieren, die durch globale Katastrophen wie einen nuklearen Winter oder plötzliche Klimaänderungen verursacht werden, zum Beispiel Umwandlung von Biomasse (Bäume und Holz) in essbare Produkte; Allerdings wird es in diesem Bereich viele Fortschritte geben, damit diese Methoden einen großen Teil der Bevölkerung überleben lassen. Andere Vorschläge zur Risikoreduzierung, wie Strategien zur Ablenkung von Asteroiden, die sich mit Impakt-Risiken befassen, oder nukleare Abrüstung, erweisen sich als wirtschaftlich oder politisch schwierig umzusetzen. Schließlich ist die Kolonisierung des Weltraums ein weiterer Vorschlag, der die Überlebenschancen angesichts eines existenziellen Risikos erhöht, aber Lösungen dieser Art, die derzeit nicht zugänglich sind, werden zweifellos unter anderem die Verwendung von Großgeräten erfordern Ingenieurwesen.

Zu den Vorsichtsmaßnahmen, die tatsächlich einzeln oder gemeinsam getroffen werden, gehören:

Die Einrichtung von Nahrungsreserven (geplant für mehrere Jahre) und andere Ressourcen, die von den Überlebenskünstlern im Rahmen von zum Beispiel dem Bau von Atomschutzbunkern gemacht wurden.

Das Svalbard World Seed Reserve, ein unterirdisches Gewölbe auf der norwegischen Insel Spitzbergen, soll die Samen aller Nahrungsmittelpflanzen in der Welt sicher und geschützt halten und so die genetische Vielfalt erhalten. einige dieser Samen sollten mehrere tausend Jahre aufbewahrt werden. Im Mai 2017 wurde das Gewölbe mit Permafrost überschwemmt, der aufgrund der globalen Erwärmung schmolz, ohne die Saatgutversorgung zu beschädigen.

Analysen und Rezensionen
Die Bedeutung der in den vorherigen Abschnitten beschriebenen Risiken wird selten geleugnet, auch wenn die Risiken für den Menschen oft minimiert werden. Nick Bostroms Analysen wurden jedoch aus verschiedenen Perspektiven kritisiert.

Technische Bewertungen
Viele der von Nick Bostrom in seinen Büchern erwähnten Risiken gelten als übertrieben (auch imaginär) oder entsprechen Zeitrahmen, die so absurd erscheinen, dass sie fast unmittelbar bedroht werden. Darüber hinaus sind die Berechnungen von Wahrscheinlichkeit, Hoffnung oder Nützlichkeit für diese Art von Situation schwierig oder schlecht definiert, wie beispielsweise Paradoxa wie das Apokalypsenargument zeigen und wie Nick Bostrom anerkennt. selbst. Insbesondere entwickelte er ein ethisches Argument, das behauptete, dass die exorbitante Zahl unserer Nachkommen, die durch eine existenzielle Katastrophe zum Nichts verurteilt sind, es rechtfertigt, alle erdenklichen Mittel einzusetzen, um die Wahrscheinlichkeit des Unfalls so gering wie möglich zu halten; Die Berechnungen, auf die es sich stützt, sind jedoch bestritten worden, und dieses Argument ist möglicherweise nur ein Trugschluss.

Nick Bostrom und Max Tegmark veröffentlichten 2005 eine Analyse eines Risikos der Instabilität des gesamten Universums. Ungeachtet der Gültigkeit ihrer Berechnungen (die tendenziell zeigen, dass das Risiko sehr gering ist), kann man sich fragen, ob es wirklich eine Bedeutung gibt, von einer Katastrophe zu sprechen, von der niemand im Voraus gewarnt wird und die keinen Beobachter zurücklässt; Während einer ähnlichen Diskussion über das Risiko einer Kettenreaktion, die die ganze Atmosphäre entzündete, hatte ein Freund auf die Ängste von Richard Hamming geantwortet: „Mach dir keine Sorgen, Hamming, es wird niemanden geben, der dir die Schuld gibt.“

Philosophische Positionen
Nick Bostroms Analysen basieren auf Transhumanismus, einer Ideologie, die den Gebrauch von Wissenschaft und Technologie befürwortet, um die physischen und psychischen Eigenschaften des Menschen zu verbessern; und er denkt, dass all das, was die Menschheit von ihrem vollen Potenzial abhalten könnte, ein existenzielles Risiko ist.

Diese Position wurde stark kritisiert, teilweise weil sie zur Leugnung der Werte führt, an denen die Menschheit im Namen hypothetischer zukünftiger Werte festhält. Steve Fuller bemerkte insbesondere, dass, wenn eine globale Katastrophe nicht die gesamte Menschheit zerstört, die Überlebenden in einigen Fällen berechtigterweise annehmen können, dass sich ihre Situation verbessert hat.