Rischio catastrofico globale antropogenico

Un rischio catastrofico globale è un ipotetico evento futuro che potrebbe danneggiare il benessere umano su scala globale, persino paralizzando o distruggendo la civiltà moderna. Un evento che potrebbe causare l’estinzione umana o ridurre drasticamente e in modo permanente il potenziale dell’umanità è noto come un rischio esistenziale.

I potenziali rischi catastrofici globali includono i rischi antropogenici, causati dall’uomo (tecnologia, governance, cambiamento climatico) e rischi naturali o esterni. Esempi di rischi tecnologici sono l’intelligenza artificiale ostile e la biotecnologia distruttiva o la nanotecnologia. Una governance globale insufficiente o maligna crea rischi nel campo sociale e politico, come una guerra globale, compreso l’olocausto nucleare, il bioterrorismo che utilizza organismi geneticamente modificati, il cyberterrorismo che distrugge infrastrutture critiche come la rete elettrica; o l’incapacità di gestire una pandemia naturale. I problemi ei rischi nel dominio della governance del sistema terrestre includono il riscaldamento globale, il degrado ambientale, compresa l’estinzione delle specie, la carestia a causa della distribuzione non equa delle risorse, la sovrappopolazione umana, i fallimenti delle colture e l’agricoltura non sostenibile. Esempi di rischi non antropogenici sono un evento di impatto a forma di asteroide, un’eruzione supervolcanica, un’esplosione letale di raggi gamma, una tempesta geomagnetica che distrugge apparecchiature elettroniche, cambiamenti climatici naturali a lungo termine o vita extraterrestre ostile.

Classifiche

Globale catastrofico vs. esistenziale
Il filosofo Nick Bostrom classifica i rischi in base alla loro portata e intensità. Un “rischio catastrofico globale” è qualsiasi rischio che abbia almeno portata “globale” e non sia soggettivamente “impercettibile” in intensità. Quelli che sono almeno “transgenerazionali” (che riguardano tutte le generazioni future) in ambito e “terminali” di intensità sono classificati come rischi esistenziali. Mentre un rischio catastrofico globale può uccidere la stragrande maggioranza della vita sulla terra, l’umanità potrebbe ancora potenzialmente recuperare. Un rischio esistenziale, d’altra parte, è uno che distrugge l’umanità (e, presumibilmente, tutte tranne le specie più rudimentali di forme di vita non umane e / o di vita vegetale) completamente o almeno impedisce qualsiasi possibilità di recupero della civiltà. Bostrom considera i rischi esistenziali molto più significativi.

Allo stesso modo, in Catastrophe: Risk and Response, Richard Posner individua e raggruppa eventi che generano “un rovesciamento o una rovina totale” su scala globale, piuttosto che “locale o regionale”. Posner individua tali eventi come meritevoli di un’attenzione particolare in termini di costi-benefici in quanto potrebbero direttamente o indirettamente mettere a repentaglio la sopravvivenza della razza umana nel suo insieme. Gli eventi di Posner includono impatti meteorici, riscaldamento globale in fuga, goo grigio, bioterrorismo e incidenti con acceleratori di particelle.

I ricercatori hanno difficoltà a studiare direttamente vicino all’estinzione umana, poiché l’umanità non è mai stata distrutta prima. Sebbene ciò non significhi che non sarà in futuro, rende difficile la modellizzazione dei rischi esistenziali, in parte a causa del pregiudizio di sopravvivenza.

Altre classificazioni
Bostrom identifica quattro tipi di rischio esistenziale. I “colpi” sono catastrofi improvvise, che possono essere accidentali o intenzionali. Pensa che le fonti più probabili di frangia siano l’uso malevolo delle nanotecnologie, la guerra nucleare e la possibilità che l’universo sia una simulazione che finirà. “Crunch” sono scenari in cui l’umanità sopravvive ma la civiltà viene lentamente distrutta. Le cause più probabili di ciò, egli ritiene, sono l’esaurimento delle risorse naturali, un governo globale stabile che impedisce il progresso tecnologico o pressioni disgeniche che riducono l’intelligenza media. “Shrieks” sono futuri indesiderabili. Ad esempio, se una singola mente aumenta i suoi poteri unendosi a un computer, potrebbe dominare la civiltà umana. Bostrom ritiene che questo scenario sia molto probabile, seguito da una superintelligenza imperfetta e da un regime totalitario repressivo. I “piagnucoli” sono il graduale declino della civiltà umana o dei valori attuali. Pensa che la causa più probabile sarebbe l’evoluzione che modifica la preferenza morale, seguita dall’invasione extraterrestre.

Morale importanza del rischio esistenziale

Alcuni studiosi hanno fortemente favorito la riduzione del rischio esistenziale sulla base del fatto che ciò avvantaggia notevolmente le generazioni future. Derek Parfit sostiene che l’estinzione sarebbe una grande perdita perché i nostri discendenti potrebbero potenzialmente sopravvivere per quattro miliardi di anni prima che l’espansione del Sole rendesse la Terra inabitabile. Nick Bostrom sostiene che esiste ancora un potenziale maggiore nello spazio colonizzatore. Se i futuri esseri umani colonizzeranno lo spazio, potrebbero essere in grado di supportare un numero molto grande di persone su altri pianeti, potenzialmente con una durata di trilioni di anni. Pertanto, la riduzione del rischio esistenziale anche di una piccola quantità avrebbe un impatto molto significativo sul numero previsto di persone che esisteranno in futuro.

Lo sconto esponenziale potrebbe rendere questi benefici futuri molto meno significativi. Tuttavia, Jason Matheny ha sostenuto che tale sconto è inappropriato quando si valuta il valore della riduzione del rischio esistenziale.

Alcuni economisti hanno discusso l’importanza dei rischi catastrofici globali, sebbene non dei rischi esistenziali. Martin Weitzman sostiene che la maggior parte del danno economico atteso dai cambiamenti climatici potrebbe derivare dalla scarsa possibilità che il riscaldamento superi di gran lunga le aspettative a medio termine, con conseguenti danni catastrofici. Richard Posner ha sostenuto che stiamo facendo troppo poco, in generale, sui rischi piccoli e difficili da stimare delle catastrofi su larga scala.

Numerosi pregiudizi cognitivi possono influenzare il giudizio delle persone sull’importanza dei rischi esistenziali, tra cui insensibilità agli obiettivi, sconto iperbolico, euristica di disponibilità, errore di congiunzione, effetto euristico dell’affetto e effetto di overconfidence.

L’insensibilità dell’ambito influenza il modo in cui le persone cattive considerano l’estinzione della razza umana. Ad esempio, quando le persone sono motivate a donare denaro per cause altruistiche, la quantità che sono disposti a dare non aumenta in modo lineare con la grandezza del problema: la gente è approssimativamente preoccupata per circa 200.000 uccelli bloccati nel petrolio poiché sono circa 2.000. Allo stesso modo, le persone sono spesso più preoccupate per le minacce agli individui che ai gruppi più grandi.

Potenziali fonti di rischio
Alcune fonti di rischio catastrofico sono naturali, come impatti meteorici o supervolcano. Alcuni di questi hanno causato estinzioni di massa in passato. D’altra parte, alcuni rischi sono causati dall’uomo, come il riscaldamento globale, il degrado ambientale, le pandemie ingegnerizzate e la guerra nucleare.

Antropogenico
Il Cambridge Project dell’Università di Cambridge afferma che le “maggiori minacce” per la specie umana sono create dall’uomo; sono l’intelligenza artificiale, il riscaldamento globale, la guerra nucleare e la biotecnologia canaglia. Il Future of Humanity Institute afferma inoltre che l’estinzione umana è più probabile che derivi da cause antropogeniche che cause naturali.

Intelligenza artificiale
È stato suggerito che l’apprendimento di computer che diventano rapidamente superintelligenti può richiedere azioni impreviste o che i robot supererebbero l’umanità (uno scenario di singolarità tecnologica). A causa della sua eccezionale capacità organizzativa e organizzativa e della gamma di nuove tecnologie che potrebbe sviluppare, è possibile che la prima superintelligenza terrestre emerga rapidamente e diventa impareggiabile e senza rivali: presumibilmente sarebbe in grado di determinare quasi tutti i possibili esiti, ed essere in grado di sventare praticamente qualsiasi tentativo che minaccia di impedirne il raggiungimento degli obiettivi. Potrebbe eliminare, spazzando via se ha scelto, altri intellettuali rivali sfidanti; in alternativa potrebbe manipolarli o persuaderli a cambiare il loro comportamento nei confronti dei propri interessi, o potrebbe semplicemente ostacolare i loro tentativi di interferenza. Nel libro di Bostrom, Superintelligence: Paths, Dangers, Strategies, lo definisce come il problema del controllo. Il fisico Stephen Hawking, il fondatore di Microsoft Bill Gates e il fondatore di SpaceX Elon Musk hanno fatto eco a queste preoccupazioni, con la teoria di Hawking che questo avrebbe potuto “svelare la fine della razza umana”.

Nel 2009, l’Associazione per l’Avanzamento dell’Intelligenza Artificiale (AAAI) ha ospitato una conferenza per discutere se computer e robot potrebbero essere in grado di acquisire qualsiasi tipo di autonomia e quanto queste abilità possano rappresentare una minaccia o un pericolo. Hanno notato che alcuni robot hanno acquisito varie forme di semi-autonomia, tra cui la possibilità di trovare fonti di energia per conto proprio e di essere in grado di scegliere autonomamente bersagli da attaccare con le armi. Hanno anche notato che alcuni virus informatici possono eludere l’eliminazione e hanno raggiunto “l’intelligenza degli scarafaggi”. Hanno notato che la consapevolezza di sé come raffigurata nella fantascienza è probabilmente improbabile, ma che c’erano altri potenziali pericoli e insidie. Varie fonti di informazione e gruppi scientifici hanno notato tendenze separate in aree diverse che potrebbero insieme determinare maggiori funzionalità e autonomia robotiche e che pongono alcune preoccupazioni inerenti.

Un sondaggio di esperti di IA ha stimato che la possibilità che l’apprendimento automatico a livello umano abbia un effetto a lungo termine “estremamente negativo (ad esempio, l’estinzione umana) sull’umanità è del 5%. Un’indagine del Future of Humanity Institute stimava una probabilità di estinzione del 5% per superintelligenza entro il 2100. Eliezer Yudkowsky ritiene che i rischi dell’intelligenza artificiale siano più difficili da prevedere rispetto a qualsiasi altro rischio noto a causa della parzialità dell’antropomorfismo. Poiché le persone basano i loro giudizi sull’intelligenza artificiale sulla propria esperienza, afferma di sottovalutare il potenziale potere dell’IA.

Biotecnologia
La biotecnologia può rappresentare un rischio catastrofico globale sotto forma di organismi bioingegnerizzati (virus, batteri, funghi, piante o animali). In molti casi l’organismo sarà un agente patogeno di esseri umani, bestiame, colture o altri organismi da cui dipendiamo (ad esempio impollinatori o batteri intestinali). Tuttavia, qualsiasi organismo in grado di interrompere catastroficamente le funzioni degli ecosistemi, ad es. le erbe infestanti altamente competitive, che eliminano le colture essenziali, rappresentano un rischio biotecnologico.

Una catastrofe biotecnologica può essere causata dal rilascio involontario di un organismo geneticamente modificato che fugge da ambienti controllati, dal rilascio pianificato di un tale organismo che si rivela quindi avere interazioni impreviste e catastrofiche con ecosistemi naturali o agroalimentari, o con l’uso intenzionale di sostanze biologiche agenti in guerra biologica, attacchi di bioterrorismo. Gli agenti patogeni possono essere intenzionalmente o involontariamente modificati geneticamente per modificare la virulenza e altre caratteristiche. Ad esempio, un gruppo di ricercatori australiani ha involontariamente cambiato le caratteristiche del virus del topo pigro mentre cercava di sviluppare un virus per sterilizzare i roditori. Il virus modificato divenne altamente letale anche nei topi vaccinati e resistenti alla natura. È probabile che i mezzi tecnologici per modificare geneticamente le caratteristiche del virus diventino più ampiamente disponibili in futuro se non adeguatamente regolamentati.

Le applicazioni terroristiche della biotecnologia sono state storicamente poco frequenti. In che misura ciò è dovuto alla mancanza di capacità o motivazione non è stato risolto. Tuttavia, dato lo sviluppo attuale, ci si può aspettare un maggiore rischio da nuovi patogeni ingegnerizzati in futuro. Una crescita esponenziale è stata osservata nel settore delle biotecnologie, e Noun e Chyba prevedono che ciò porterà a importanti aumenti delle capacità biotecnologiche nei prossimi decenni. Essi sostengono che i rischi derivanti dalla guerra biologica e dal bioterrorismo sono distinti dalle minacce nucleari e chimiche perché i patogeni biologici sono più facili da produrre in serie e la loro produzione è difficile da controllare (soprattutto perché le capacità tecnologiche sono disponibili anche per i singoli utenti). Un sondaggio del Future of Humanity Institute stimava una probabilità di estinzione del 2% rispetto alle pandemie ingegnerizzate entro il 2100.

Noun e Chyba propongono tre categorie di misure per ridurre i rischi derivanti dalle biotecnologie e dalle pandemie naturali: regolamentazione o prevenzione di ricerche potenzialmente pericolose, migliore riconoscimento dei focolai e sviluppo di strutture per mitigare epidemie (ad esempio vaccini migliori e / o più ampiamente distribuiti).

Attacco informatico
Gli attacchi informatici possono potenzialmente distruggere tutto, dai dati personali alle reti elettriche. Christine Peterson, co-fondatrice e past president del Foresight Institute, crede che un attacco informatico alle reti elettriche abbia il potenziale per essere un rischio catastrofico.

Riscaldamento globale
Il riscaldamento globale si riferisce al riscaldamento causato dalla tecnologia umana dal 19 ° secolo in avanti. Le proiezioni del futuro cambiamento climatico suggeriscono un ulteriore riscaldamento globale, un innalzamento del livello del mare e un aumento della frequenza e della gravità di alcuni eventi meteorologici estremi e disastri legati alle condizioni meteorologiche. Gli effetti del riscaldamento globale comprendono la perdita di biodiversità, lo stress per i sistemi di produzione alimentare esistenti, l’aumento della diffusione di malattie infettive conosciute come la malaria e la rapida mutazione di microrganismi. Nel novembre 2017, una dichiarazione di 15.364 scienziati di 184 paesi ha indicato che l’aumento dei livelli di gas serra derivanti dall’uso di combustibili fossili, la crescita della popolazione umana, la deforestazione e l’uso eccessivo di terreni per la produzione agricola, in particolare dai ruminanti per il consumo di carne, sono di modi che prevedono un aumento della miseria umana nei prossimi decenni.

Disastro ambientale
Un disastro ambientale o ecologico, come il fallimento delle colture mondiali e il collasso dei servizi ecosistemici, potrebbe essere indotto dalle attuali tendenze della sovrappopolazione, dello sviluppo economico e dell’agricoltura non sostenibile. La maggior parte degli scenari ambientali coinvolge uno o più dei seguenti eventi: estinzione dell’olocene, scarsità di acqua che potrebbe portare a circa metà della popolazione della Terra senza acqua potabile sicura, declino degli impollinatori, sovrasfruttamento, massiccia deforestazione, desertificazione, cambiamenti climatici o massicci episodi di inquinamento idrico. Rilevato all’inizio del XXI secolo, una minaccia in questa direzione è il disordine del collasso della colonia, un fenomeno che potrebbe prefigurare l’imminente estinzione dell’ape occidentale. Poiché l’ape svolge un ruolo fondamentale nell’impollinazione, la sua estinzione interromperebbe gravemente la catena alimentare.

Un rapporto di ottobre 2017 pubblicato su The Lancet ha dichiarato che l’aria tossica, l’acqua, i terreni ei luoghi di lavoro sono stati collettivamente responsabili di 9 milioni di morti in tutto il mondo nel 2015, in particolare dell’inquinamento atmosferico che era legato alla morte aumentando la suscettibilità a malattie non infettive, come malattie cardiache, ictus e cancro ai polmoni. Il rapporto avvertiva che la crisi dell’inquinamento stava superando “la quantità di inquinamento che la Terra può trasportare” e “minaccia la sopravvivenza continua delle società umane”.

Esaurimento delle risorse minerarie
L’economista americano rumeno Nicholas Georgescu-Roegen, un progenitore in economia e il fondatore del paradigma dell’economia ecologica, ha sostenuto che la capacità di carico della Terra – cioè la capacità della Terra di sostenere popolazioni umane e livelli di consumo – è destinata a diminuire in futuro in futuro poiché lo stock finito di risorse minerarie della Terra viene attualmente estratto e utilizzato; e di conseguenza, che l’economia mondiale nel suo insieme si sta dirigendo verso un inevitabile collasso futuro, portando alla scomparsa della stessa civiltà umana. L’economista ecologico e teorico dello stato stazionario Herman Daly, studente di Georgescu-Roegen, ha proposto lo stesso argomentando affermando che “… tutto ciò che possiamo fare è evitare di sprecare la capacità limitata della creazione di sostenere la vita presente e futura [sulla Terra]”: 370

Da quando Georgescu-Roegen e Daly hanno pubblicato queste opinioni, vari studiosi del settore hanno discusso sull’impossibilità esistenziale di distribuire lo stock finito di risorse minerali della Terra in modo uniforme tra un numero sconosciuto di generazioni presenti e future. È probabile che questo numero di generazioni rimanga sconosciuto a noi, poiché c’è poco modo di sapere in anticipo se o quando l’umanità finirà con l’estinguersi. In effetti, qualsiasi immaginabile distribuzione intertemporale del titolo finirà inevitabilmente con il declino economico universale in qualche momento futuro .:253-256:165:168-171:150-153:106-109:546-549:142-145

Incidente tecnologico sperimentale
Nick Bostrom ha suggerito che nella ricerca della conoscenza, l’umanità potrebbe inavvertitamente creare un dispositivo che potrebbe distruggere la Terra e il Sistema Solare. Le indagini sulla fisica nucleare e delle alte energie potrebbero creare condizioni insolite con conseguenze catastrofiche. Ad esempio, gli scienziati temevano che il primo test nucleare potesse accendere l’atmosfera. Più di recente, altri si sono preoccupati che il RHIC o il Large Hadron Collider potesse avviare un disastro globale di reazione a catena che coinvolgesse buchi neri, strangelet o falsi stati di vuoto. Queste preoccupazioni particolari sono state confutate, ma la preoccupazione generale rimane.

La biotecnologia potrebbe portare alla creazione di una pandemia, la guerra chimica potrebbe essere portata all’estremo, la nanotecnologia potrebbe portare a una sostanza grigia in cui i robot auto-replicanti fuori controllo consumano tutta la materia vivente sulla terra mentre costruiscono più di loro stessi – in entrambi casi, deliberatamente o per caso.

Nanotecnologia
Molte tecnologie su scala nanometrica sono in fase di sviluppo o attualmente in uso. L’unico che sembra rappresentare un rischio catastrofico globale significativo è la produzione molecolare, una tecnica che consentirebbe di costruire strutture complesse con precisione atomica. La produzione molecolare richiede significativi progressi nelle nanotecnologie, ma una volta raggiunta potrebbe produrre prodotti altamente avanzati a basso costo e in grandi quantità in nanoproduzioni di proporzioni desktop. Quando le nanofarmaci ottengono la capacità di produrre altre nanofattorie, la produzione può essere limitata solo da fattori relativamente abbondanti come materiali di input, energia e software.

La produzione molecolare potrebbe essere utilizzata per produrre a basso costo, tra molti altri prodotti, armi altamente avanzate e durature. Essendo dotato di computer e motori compatti, questi potrebbero essere sempre più autonomi e dotati di un’ampia gamma di funzionalità.

Chris Phoenix e Treder classificano i rischi catastrofici posti dalla nanotecnologia in tre categorie:

Dall’aumentare lo sviluppo di altre tecnologie come l’intelligenza artificiale e la biotecnologia.
Consentendo la produzione in serie di prodotti potenzialmente pericolosi che causano dinamiche di rischio (come le gare di armi) a seconda di come vengono utilizzate.
Da processi incontrollati di auto-perpetuazione con effetti distruttivi.

Diversi ricercatori affermano che la maggior parte dei rischi derivanti dalle nanotecnologie deriva dal potenziale di condurre alla guerra, alle razze di armi e al governo globale distruttivo. Sono stati suggeriti diversi motivi per cui la disponibilità di armi nanotecnologiche può con probabilità significativa portare a razze di armi instabili (rispetto ad esempio per le gare di armi nucleari):

Un gran numero di giocatori può essere tentato di entrare in gara poiché la soglia per farlo è bassa;
La possibilità di fabbricare armi con produzione molecolare sarà economica e facile da nascondere;
Pertanto, la mancanza di conoscenza delle capacità delle altre parti può indurre i giocatori a non prestare attenzione o a lanciare attacchi preventivi;
La produzione molecolare può ridurre la dipendenza dal commercio internazionale, un potenziale fattore di promozione della pace;
Le guerre di aggressione possono rappresentare una minaccia economica minore per l’aggressore poiché la produzione è economica e gli umani potrebbero non essere necessari sul campo di battaglia.
Poiché l’autoregolamentazione da parte di tutti gli attori statali e non statali sembra difficile da raggiungere, le misure volte a mitigare i rischi legati alla guerra sono state proposte principalmente nell’ambito della cooperazione internazionale. Le infrastrutture internazionali possono essere ampliate dando più sovranità a livello internazionale. Ciò potrebbe aiutare a coordinare gli sforzi per il controllo degli armamenti. Possono anche essere progettate istituzioni internazionali dedicate specificamente alle nanotecnologie (forse analogamente all’Agenzia internazionale per l’energia atomica IAEA) o al controllo generale degli armamenti. Si può anche fare congiuntamente progressi tecnologici differenziali su tecnologie difensive, una politica che i giocatori dovrebbero generalmente favorire. Il Centro per le nanotecnologie responsabili suggerisce anche alcune restrizioni tecniche. Una maggiore trasparenza riguardo alle capacità tecnologiche potrebbe essere un altro importante strumento per il controllo degli armamenti.

Grey goo è un altro scenario catastrofico, che è stato proposto da Eric Drexler nel suo libro del 1986 Engines of Creation ed è stato un tema nei media mainstream e nella fiction. Questo scenario coinvolge piccoli robot auto-replicanti che consumano l’intera biosfera usandola come fonte di energia e blocchi. Al giorno d’oggi, tuttavia, gli esperti di nanotecnologie, tra cui Drexler, discreditano lo scenario. Secondo Phoenix, un “cosiddetto goo grigio potrebbe essere solo il prodotto di un processo ingegnoso deliberato e difficile, non un incidente”.

Guerra e distruzione di massa
Gli scenari che sono stati esplorati più frequentemente sono la guerra nucleare e i dispositivi del giorno del giudizio. Sebbene la probabilità di una guerra nucleare all’anno sia limitata, il professor Martin Hellman l’ha descritta come inevitabile a lungo termine; a meno che la probabilità si avvicini a zero, inevitabilmente verrà un giorno in cui la fortuna della civiltà si esaurirà. Durante la crisi dei missili cubani, il presidente degli Stati Uniti John F. Kennedy stimò le probabilità di una guerra nucleare a “da qualche parte tra uno su tre e persino”. Gli Stati Uniti e la Russia hanno un arsenale combinato di 14.700 armi nucleari e si stima che in tutto il mondo esistano 15.700 armi nucleari. Oltre al nucleare, altre minacce militari all’umanità includono la guerra biologica (BW). Al contrario, è improbabile che la guerra chimica, pur essendo in grado di creare più catastrofi locali, crei uno scenario globale.

La guerra nucleare potrebbe produrre un numero di morti umane senza precedenti e la distruzione dell’habitat. Detonare un gran numero di armi nucleari avrebbe effetti immediati, a breve ea lungo termine sul clima, causando il freddo e la riduzione della luce solare e della fotosintesi che potrebbero generare uno sconvolgimento significativo nelle civiltà avanzate. Tuttavia, mentre la percezione popolare a volte prende la guerra nucleare come “la fine del mondo”, gli esperti assegnano bassa probabilità all’estinzione umana dalla guerra nucleare. Nel 1982, Brian Martin stimò che uno scambio nucleare tra Stati Uniti e Unione Sovietica avrebbe potuto uccidere 400-450 milioni direttamente, per lo più negli Stati Uniti, in Europa e in Russia, e forse diverse centinaia di milioni in più attraverso conseguenze successive in quelle stesse aree. Un’indagine del Future of Humanity Institute stimò una probabilità del 4% di estinzione dalla guerra entro il 2100, con una probabilità dell’1% di estinzione dalla guerra nucleare.

Popolazione mondiale e crisi agricola

Il 20 ° secolo ha visto un rapido aumento della popolazione umana a causa di sviluppi medici e massicci aumenti della produttività agricola, come la rivoluzione verde. Tra il 1950 e il 1984, quando la Rivoluzione Verde trasformò l’agricoltura in tutto il mondo, la produzione mondiale di cereali aumentò del 250%. La rivoluzione verde in agricoltura ha aiutato la produzione alimentare a tenere il passo con la crescita della popolazione mondiale o ha effettivamente permesso la crescita della popolazione. L’energia per la rivoluzione verde è stata fornita da combustibili fossili sotto forma di fertilizzanti (gas naturale), pesticidi (petrolio) e irrigazione alimentata a idrocarburi. David Pimentel, professore di ecologia e agricoltura presso la Cornell University, e Mario Giampietro, ricercatore senior presso l’Istituto nazionale di ricerca su alimentazione e nutrizione (INRAN), colloca nel suo studio del 1994 Food, Land, Population and the US Economy la massima popolazione statunitense per un’economia sostenibile a 200 milioni. Per raggiungere un’economia sostenibile e evitare il disastro, gli Stati Uniti devono ridurre la popolazione di almeno un terzo e la popolazione mondiale dovrà essere ridotta di due terzi, afferma lo studio.

Gli autori di questo studio ritengono che la crisi agricola menzionata inizierà ad avere un effetto sul mondo dopo il 2020, e diventerà critica dopo il 2050. Il geologo Dale Allen Pfeiffer sostiene che i prossimi decenni potrebbero vedere un aumento vertiginoso dei prezzi alimentari senza sollievo livello globale come mai visto prima.

Il grano è il terzo cereale prodotto dall’umanità. Infezioni fungine estese come Ug99 (una specie di ruggine dello stelo) possono causare perdite del raccolto del 100% nella maggior parte delle varietà moderne. È possibile un trattamento minimo o inesistente e l’infezione si diffonde al vento. Se le grandi aree produttrici di cereali del mondo si ammalano, la conseguente crisi della disponibilità di grano porterebbe a picchi di prezzo e carenze in altri prodotti alimentari.

Percezione del rischio
Secondo Eliezer Yudkowsky, molti pregiudizi cognitivi possono influenzare il modo in cui individui e gruppi considerano l’importanza dei rischi di catastrofi globali, tra cui insensibilità allo scopo, disponibilità euristica, pregiudizi di rappresentatività, influenza dell’euristica e l’effetto di eccessiva sicurezza. Ad esempio, l’insensibilità alla portata porta le persone ad essere più spesso preoccupate delle minacce individuali rispetto a quelle indirizzate a gruppi più grandi (questo è il motivo per cui le loro donazioni per cause altruistiche non sono proporzionali all’entità del problema); è per questo che non considerano l’estinzione dell’umanità come un problema serio come dovrebbe essere. Allo stesso modo, la parzialità della rappresentatività li porta a minimizzare i disastri che hanno poco a che fare con quelli di cui erano consapevoli e supponendo che il danno che causano non sarà molto più grave.

È stato spesso notato che la maggior parte dei rischi antropogenici menzionati sopra spesso corrispondono a miti molto antichi, quelli di Prometeo, in Pandora e più recentemente quello dell’apprendista stregone è il più rappresentativo. Il simbolismo dei quattro Cavalieri dell’Apocalisse, le ultime tre guerre rappresentative, Carestia e Morte, è già nell’Antico Testamento come la scomoda scelta offerta da Dio al Re David. I vari rischi della rivolta delle macchine appaiono nel mito del Golem e, combinati con le biotecnologie, nella storia del mostro di Frankenstein. D’altra parte, è stato suggerito che i racconti di disastri di varie tradizioni religiose (dove sono più spesso legati all’ira delle divinità) corrisponderebbero a ricordi di catastrofi reali (ad esempio il Diluvio sarebbe collegato alla riconnessione del Mare di Marmara con il Mar Nero); sotto il nome di catastrofismo coerente (catastrofismo coerente), Victor Clube e Bill Napier hanno sviluppato l’ipotesi che le piogge meteoriche catastrofiche abbiano dato vita a molti miti cosmologici, che vanno dalla storia della distruzione di Sodoma e Gomorra (tesi difesa anche da Marie-Agnes Cortesia) alle descrizioni di Rivelazione; Tuttavia, le loro idee sono ben accettate dalla comunità scientifica.

L’esistenza di queste interpretazioni “mitiche”, così come numerose profezie di fine del mondo n. 15, facilita un fenomeno di rifiuto parziale o totale di prendere in considerazione questi rischi di disastro, noto come sindrome di Cassandra: mentre i rischi antropogenici sono minimizzati attribuendoli a paure irrazionali, le catastrofi descritte nei miti sono giudicate esagerate dall’ignoranza e dalla deformazione dei ricordi.

L’analisi dei rischi causati dall’uomo soffre di due distorsioni opposte: gli informatori tendono ad esagerare il rischio di essere ascoltati, o addirittura a denunciare i rischi immaginari in nome del principio di precauzione; potenti interessi economici che cercano di invertire i rischi associati alle loro attività, come dimostrato ad esempio nel caso dell’istituto Heartland, e più in generale l’analisi delle strategie di disinformazione delineate in The doubt Merchants.

Dando un’interpretazione razionale del mito dell’età dell’oro n. 20, Jared Diamond viene finalmente osservato che alcuni disastri (i “crolli” di Nick Bostrom) possono andare in aziende non rilevate che soffrono la mancanza di una memoria sufficiente per la storia; è tale che spiega il disastro ecologico sofferto dagli abitanti dell’Isola di Pasqua.

Precauzioni e prevenzione
Il concetto di governance globale che rispetta i confini planetari è stato proposto come approccio alla riduzione del rischio di catastrofi. In particolare, il campo della geoingegneria prevede di manipolare l’ambiente globale per combattere i cambiamenti antropogenici nella composizione atmosferica. Sono state esplorate tecniche complete di conservazione e conservazione degli alimenti, ma i loro costi sarebbero elevati e potrebbero aggravare le conseguenze della malnutrizione. David Denkenberger e Joshua Pearce hanno suggerito di utilizzare una varietà di alimenti alternativi per ridurre il rischio di fame legati a catastrofi globali come un inverno nucleare o improvvisi cambiamenti climatici, ad esempio, la conversione di biomassa (alberi e legname) in prodotti commestibili; Tuttavia, ci vorranno molti progressi in quest’area in modo che questi metodi permettano a una grande parte della popolazione di sopravvivere. Altri suggerimenti per la riduzione del rischio, come le strategie di deformazione degli asteroidi per affrontare i rischi di impatto o il disarmo nucleare, si dimostrano difficili da attuare economicamente o politicamente. Infine, la colonizzazione dello spazio è un’altra proposta fatta per aumentare le possibilità di sopravvivenza di fronte a un rischio esistenziale, ma soluzioni di questo tipo, che sono attualmente inaccessibili, richiederanno senza dubbio, tra le altre cose, l’uso di grandi dimensioni ingegneria.

Tra le precauzioni effettivamente prese singolarmente o collettivamente includono:

L’istituzione di riserve di cibo (programmate per diversi anni) e altre risorse fatte dai sopravvissuti nel quadro, ad esempio, della costruzione di rifugi antiatomici.

La riserva di sementi del mondo delle Svalbard, un caveau sotterraneo sull’isola norvegese di Spitsbergen, ha lo scopo di conservare i semi di tutte le colture alimentari nel mondo in modo sicuro e protetto, preservando così la diversità genetica; alcuni di questi semi dovrebbero essere conservati per diverse migliaia di anni. Nel maggio 2017, il caveau è stato inondato di fusione di permafrost a causa del riscaldamento globale, senza danneggiare la fornitura di semi.

Analisi e recensioni
L’importanza dei rischi descritti nelle sezioni precedenti è raramente negata, anche se i rischi per gli esseri umani sono spesso ridotti al minimo; tuttavia, le analisi di Nick Bostrom sono state criticate da diverse prospettive distinte.

Recensioni tecniche
Molti dei rischi menzionati da Nick Bostrom nei suoi libri sono considerati esagerati (anche immaginari), o corrispondono a scale temporali così vaste che sembra un po ‘assurdo raggrupparli con minacce quasi immediate. Inoltre, i calcoli di probabilità, speranza o utilità sono difficili o mal definiti per questo tipo di situazione, come dimostrato, ad esempio, da paradossi come l’argomento dell’apocalisse, e come riconosce Nick Bostrom. lui stesso. In particolare, sviluppò un argomento etico sostenendo che il numero esorbitante dei nostri discendenti condannato al nulla da una catastrofe esistenziale giustifica l’impiego di ogni mezzo concepibile per diminuire, per quanto piccola, la probabilità dell’incidente; tuttavia, i calcoli su cui si basa sono stati contestati e questo argomento potrebbe essere solo un errore.

Nick Bostrom e Max Tegmark hanno pubblicato nel 2005 un’analisi di un rischio di instabilità dell’intero universo. Indipendentemente dalla validità dei loro calcoli (tendendo a dimostrare che il rischio è molto basso), ci si potrebbe chiedere se esiste davvero un significato per parlare di un disastro di cui nessuno sarebbe stato avvertito in anticipo e che non lascia alcun osservatore; durante una discussione simile sul rischio di una reazione a catena che ha innescato l’intera atmosfera, un amico aveva risposto alle ansie di Richard Hamming dicendo: “Non preoccuparti, Hamming, non ci sarà nessuno da incolpare te”.

Posizioni filosofiche
Le analisi di Nick Bostrom sono basate sul transumanesimo, un’ideologia che sostiene l’uso della scienza e della tecnologia per migliorare le caratteristiche fisiche e mentali degli esseri umani; e considera che tutto ciò che potrebbe impedire all’umanità di esprimere tutto il suo potenziale è un rischio esistenziale.

Questa posizione è stata severamente criticata, in parte perché porta alla negazione dei valori presenti che l’umanità è attaccata per conto di ipotetici valori futuri. Steve Fuller ha particolarmente notato che se una catastrofe globale non distrugge tutta l’umanità, i sopravvissuti possono legittimamente considerare in alcuni casi che la loro situazione è migliorata.