Risque anthropique global catastrophique

Un risque catastrophique mondial est un événement futur hypothétique qui pourrait nuire au bien-être humain à l’échelle mondiale, voire paralyser ou détruire la civilisation moderne. Un événement susceptible d’entraîner l’extinction humaine ou de réduire de façon permanente et drastique le potentiel de l’humanité est connu comme un risque existentiel.

Les risques catastrophiques mondiaux potentiels comprennent les risques anthropiques, causés par l’homme (technologie, gouvernance, changement climatique) et les risques naturels ou externes. L’intelligence artificielle hostile et la biotechnologie destructive ou la nanotechnologie sont des exemples de risques technologiques. Une gouvernance mondiale insuffisante ou malveillante crée des risques dans le domaine social et politique, tels qu’une guerre mondiale, y compris l’holocauste nucléaire, le bioterrorisme utilisant des organismes génétiquement modifiés, le cyberterrorisme détruisant des infrastructures critiques comme le réseau électrique; ou l’incapacité à gérer une pandémie naturelle. Les problèmes et risques dans le domaine de la gouvernance du système terrestre comprennent le réchauffement de la planète, la dégradation de l’environnement, notamment l’extinction d’espèces, la famine résultant de la répartition non équitable des ressources, la surpopulation humaine, les mauvaises récoltes et l’agriculture non durable. Parmi les risques non anthropiques, citons l’impact d’un astéroïde, une éruption supervolcanique, un sursaut gamma mortel, une tempête géomagnétique détruisant un équipement électronique, un changement climatique naturel à long terme ou une vie extraterrestre hostile.

Classifications

Global catastrophique vs. existentiel
Le philosophe Nick Bostrom classe les risques en fonction de leur portée et de leur intensité. Un « risque catastrophique mondial » est un risque qui a au moins une portée « globale » et dont l’intensité n’est pas subjectivement « imperceptible ». Celles qui sont au moins « transgénérationnelles » (affectant toutes les générations futures) et qui ont une intensité « terminale » sont classées comme risques existentiels. Alors qu’un risque catastrophique mondial peut tuer la grande majorité de la vie sur terre, l’humanité pourrait encore se rétablir. Un risque existentiel, en revanche, est un risque qui détruit l’humanité (et probablement toutes les espèces de formes de vie et / ou de végétaux non humaines les plus rudimentaires) ou empêche au moins toute possibilité de rétablissement de la civilisation. Bostrom considère que les risques existentiels sont beaucoup plus importants.

De même, dans Catastrophe: Risque et réponse, Richard Posner choisit et regroupe des événements qui entraînent un «renversement ou une ruine totale» à une échelle mondiale plutôt qu’à une échelle «locale ou régionale». Posner souligne que de tels événements méritent une attention particulière pour des raisons de rentabilité, car ils pourraient directement ou indirectement compromettre la survie de l’humanité tout entière. Les événements de Posner incluent les impacts de météorites, le réchauffement climatique, la grise grise, le bioterrorisme et les accidents d’accélérateurs de particules.

Les chercheurs éprouvent des difficultés à étudier directement l’extinction humaine, puisque l’humanité n’a jamais été détruite auparavant. Bien que cela ne signifie pas que ce ne sera pas dans le futur, cela rend difficile la modélisation des risques existentiels, en partie à cause du biais de survie.

Autres classifications
Bostrom identifie quatre types de risque existentiel. Les « franges » sont des catastrophes soudaines qui peuvent être accidentelles ou délibérées. Il pense que les sources les plus probables de chocs sont l’utilisation malveillante de la nanotechnologie, la guerre nucléaire et la possibilité que l’univers soit une simulation qui prendra fin. Les «crunches» sont des scénarios dans lesquels l’humanité survit, mais la civilisation est lentement détruite. Selon lui, les causes les plus probables sont l’épuisement des ressources naturelles, un gouvernement mondial stable qui prévient le progrès technologique ou des pressions dysgéniques qui réduisent l’intelligence moyenne. Les « hurlements » sont des avenirs indésirables. Par exemple, si un seul esprit améliore ses pouvoirs en fusionnant avec un ordinateur, il pourrait dominer la civilisation humaine. Bostrom estime que ce scénario est le plus probable, suivi par une superintelligence imparfaite et un régime totalitaire répressif. Les « Whimpers » sont le déclin progressif de la civilisation humaine ou des valeurs actuelles. Il pense que la cause la plus probable serait l’évolution de la préférence morale, suivie de l’invasion extraterrestre.

Importance morale du risque existentiel

Certains chercheurs ont fortement privilégié la réduction du risque existentiel au motif que cela profiterait grandement aux générations futures. Derek Parfit soutient que l’extinction serait une grande perte parce que nos descendants pourraient potentiellement survivre quatre milliards d’années avant que l’expansion du Soleil ne rende la Terre inhabitable. Nick Bostrom soutient qu’il existe un potentiel encore plus grand dans l’espace colonisateur. Si les humains futurs colonisent l’espace, ils peuvent être capables de supporter un très grand nombre de personnes sur d’autres planètes, pouvant durer des milliards d’années. Par conséquent, une réduction du risque existentiel, même infime, aurait un impact très important sur le nombre de personnes qui existeront dans le futur.

L’actualisation exponentielle pourrait rendre ces avantages futurs beaucoup moins importants. Cependant, Jason Matheny a fait valoir qu’un tel rabais est inapproprié lors de l’évaluation de la valeur de la réduction du risque existentiel.

Certains économistes ont discuté de l’importance des risques catastrophiques mondiaux, mais pas des risques existentiels. Martin Weitzman soutient que la plupart des dommages économiques attendus du changement climatique peuvent provenir de la faible probabilité que le réchauffement dépasse largement les attentes du milieu de gamme, entraînant des dommages catastrophiques. Richard Posner a fait valoir que nous faisons beaucoup trop peu, en général, en ce qui concerne les petits risques de catastrophes à grande échelle, difficiles à estimer.

De nombreux biais cognitifs peuvent influencer le jugement des personnes sur l’importance des risques existentiels, notamment l’insensibilité de la portée, l’actualisation hyperbolique, l’heuristique de disponibilité, l’erreur de conjonction, l’heuristique de l’affect et l’effet de confiance excessive.

L’insensibilité à la portée influence la façon dont les gens considèrent l’extinction de la race humaine. Par exemple, lorsque les gens sont motivés à donner de l’argent à des causes altruistes, la quantité qu’ils sont prêts à donner n’augmente pas de manière linéaire avec l’ampleur du problème: environ 200 000 oiseaux sont bloqués dans le pétrole par environ 2 000 personnes. De même, les personnes sont souvent plus préoccupées par les menaces qui pèsent sur les individus que sur les groupes plus importants.

Sources potentielles de risque
Certaines sources de risques catastrophiques sont naturelles, telles que les impacts de météorites ou les supervolcans. Certains d’entre eux ont provoqué des extinctions massives dans le passé. D’autre part, certains risques sont causés par l’homme, tels que le réchauffement de la planète, la dégradation de l’environnement, les pandémies artificielles et la guerre nucléaire.

Anthropogénique
Le Cambridge Project de l’Université de Cambridge affirme que les «plus grandes menaces» pour l’espèce humaine sont causées par l’homme; ce sont l’intelligence artificielle, le réchauffement climatique, la guerre nucléaire et les biotechnologies malhonnêtes. Le Future of Humanity Institute affirme également que l’extinction humaine est plus susceptible de résulter de causes anthropiques que de causes naturelles.

Intelligence artificielle
Il a été suggéré que l’apprentissage d’ordinateurs qui deviennent rapidement super intelligents peut prendre des mesures imprévues, ou que des robots seraient plus compétitifs que l’humanité (un scénario de singularité technologique). En raison de ses capacités exceptionnelles en matière d’ordonnancement et d’organisation et de l’éventail des technologies novatrices qu’il pourrait développer, il est possible que la première superintelligence de la Terre à émerger devienne rapidement incomparable et inégalée. capable de déjouer pratiquement toute tentative qui risquait de l’empêcher d’atteindre ses objectifs. Il pourrait éliminer, anéantissant si tel est le cas, tout autre esprit concurrent difficile; sinon, il pourrait les manipuler ou les persuader de modifier leur comportement envers leurs propres intérêts, ou simplement entraver leurs tentatives d’ingérence. Dans le livre de Bostrom, Superintelligence: Chemins, Dangers, Stratégies, il définit cela comme le problème du contrôle. Le physicien Stephen Hawking, le fondateur de Microsoft, Bill Gates, et le fondateur de SpaceX, Elon Musk, ont fait écho à ces inquiétudes, Hawking pensant que cela pourrait « sonner la fin de la race humaine ».

En 2009, l’Association pour l’avancement de l’intelligence artificielle (AAAI) a organisé une conférence pour déterminer si les ordinateurs et les robots pourraient acquérir une autonomie et dans quelle mesure ces capacités pourraient constituer une menace ou un danger. Ils ont noté que certains robots ont acquis diverses formes de semi-autonomie, notamment être en mesure de trouver eux-mêmes des sources d’énergie et de pouvoir choisir indépendamment des cibles pour attaquer avec des armes. Ils ont également noté que certains virus informatiques peuvent échapper à l’élimination et ont atteint « l’intelligence des cafards ». Ils ont noté que la conscience de soi telle que décrite dans la science-fiction était probablement improbable, mais qu’il y avait d’autres dangers et pièges potentiels. Diverses sources médiatiques et groupes scientifiques ont relevé des tendances distinctes dans des domaines différents, ce qui pourrait se traduire par une plus grande fonctionnalité et une plus grande autonomie de la robotique et susciter des préoccupations inhérentes.

Une enquête menée par des experts en IA a estimé que 5% des chances d’un apprentissage automatique de niveau humain ayant un effet extrêmement grave (par exemple, une extinction humaine) à long terme sur l’humanité. Une enquête menée par le Future of Humanity Institute estimait à 2100 la probabilité d’extinction par super-intelligence d’ici à 2100. Eliezer Yudkowsky pense que les risques de l’intelligence artificielle sont plus difficiles à prévoir que tout autre risque connu dû à l’anthropomorphisme. Comme les gens fondent leurs jugements d’intelligence artificielle sur leur propre expérience, il affirme qu’ils sous-estiment le pouvoir potentiel de l’IA.

Biotechnologie
La biotechnologie peut présenter un risque catastrophique global sous la forme d’organismes issus du génie biologique (virus, bactéries, champignons, plantes ou animaux). Dans de nombreux cas, l’organisme sera un agent pathogène pour l’homme, le bétail, les cultures ou d’autres organismes dont nous dépendons (par exemple, les pollinisateurs ou les bactéries intestinales). Cependant, tout organisme capable de perturber de façon catastrophique les fonctions de l’écosystème, par exemple les mauvaises herbes hautement compétitives, en concurrence avec les cultures essentielles, pose un risque biotechnologique.

Une catastrophe biotechnologique peut être provoquée par la libération accidentelle d’un organisme génétiquement modifié s’échappant d’environnements contrôlés, par la libération planifiée d’un tel organisme, qui se révèle alors avoir des interactions imprévues et catastrophiques avec des écosystèmes naturels ou agents de guerre biologique, attaques de bioterrorisme. Les agents pathogènes peuvent être modifiés génétiquement, intentionnellement ou non, pour modifier la virulence et d’autres caractéristiques. Par exemple, un groupe de chercheurs australiens a involontairement modifié les caractéristiques du virus de la variole de la souris en essayant de développer un virus pour stériliser les rongeurs. Le virus modifié est devenu hautement mortel, même chez les souris vaccinées et naturellement résistantes. Les moyens technologiques pour modifier génétiquement les caractéristiques des virus sont susceptibles de devenir plus largement disponibles à l’avenir s’ils ne sont pas correctement réglementés.

Les applications terroristes de la biotechnologie ont toujours été rares. Dans quelle mesure cela est dû à un manque de capacités ou de motivation n’est pas résolu. Toutefois, compte tenu de l’évolution actuelle, on peut s’attendre à de nouveaux risques liés à de nouveaux agents pathogènes modifiés. Une croissance exponentielle a été observée dans le secteur des biotechnologies, et Noun et Chyba prévoient que cela entraînera une augmentation majeure des capacités biotechnologiques au cours des prochaines décennies. Ils affirment que les risques de guerre biologique et de bioterrorisme sont distincts des menaces nucléaires et chimiques car les agents pathogènes biologiques sont plus faciles à produire en masse et leur production est difficile à contrôler (d’autant plus que les capacités technologiques deviennent disponibles même pour les utilisateurs individuels). Une enquête réalisée par le Future of Humanity Institute a estimé à 2% la probabilité d’extinction des pandémies artificielles d’ici à 2100.

Noun et Chyba proposent trois catégories de mesures pour réduire les risques liés à la biotechnologie et aux pandémies naturelles: Réglementer ou prévenir les recherches potentiellement dangereuses, améliorer la reconnaissance des épidémies et développer des installations pour atténuer les épidémies (vaccins mieux distribués).

Cyber-attaque
Les cyberattaques ont le potentiel de tout détruire, des données personnelles aux réseaux électriques. Christine Peterson, co-fondatrice et ancienne présidente du Foresight Institute, estime qu’une cyber-attaque sur les réseaux électriques pourrait constituer un risque catastrophique.

Le réchauffement climatique
Le réchauffement climatique fait référence au réchauffement causé par la technologie humaine depuis le 19ème siècle ou avant. Les projections des changements climatiques futurs suggèrent un réchauffement de la planète, une élévation du niveau de la mer et une augmentation de la fréquence et de la gravité de certains phénomènes météorologiques extrêmes et des catastrophes météorologiques. Les effets du réchauffement de la planète incluent la perte de biodiversité, les contraintes sur les systèmes de production alimentaire existants, la propagation accrue de maladies infectieuses connues telles que le paludisme et la mutation rapide des micro-organismes. En novembre 2017, une déclaration de 15 364 scientifiques de 184 pays a indiqué que les niveaux croissants de gaz à effet de serre provenant de l’utilisation de combustibles fossiles, la croissance démographique, la déforestation et la surexploitation des terres pour la production agricole des moyens qui prévoient une augmentation de la misère humaine au cours des prochaines décennies.

Désastre environnemental
Un désastre environnemental ou écologique, tel que les mauvaises récoltes mondiales et l’effondrement des services écosystémiques, pourrait être provoqué par les tendances actuelles de surpopulation, de développement économique et d’agriculture non durable. La plupart des scénarios environnementaux impliquent un ou plusieurs des éléments suivants: extinction de l’Holocène, rareté de l’eau pouvant conduire à environ la moitié de la population sans eau potable, déclin des pollinisateurs, surpêche, déforestation massive, désertification, changement climatique ou massif épisodes de pollution de l’eau. Détecté au début du 21ème siècle, le désordre par effondrement des colonies, un phénomène qui pourrait présager l’extinction imminente des abeilles mellifères occidentales, constitue une menace dans cette direction. Comme l’abeille joue un rôle essentiel dans la pollinisation, son extinction perturberait gravement la chaîne alimentaire.

Un rapport publié en octobre 2017 dans The Lancet indiquait que l’air, l’eau, les sols et les lieux de travail toxiques étaient collectivement responsables de 9 millions de décès dans le monde en 2015, en particulier de la pollution atmosphérique liée aux maladies non infectieuses. maladie cardiaque, accident vasculaire cérébral et cancer du poumon. Le rapport a averti que la crise de la pollution dépassait « l’enveloppe de la quantité de pollution que la Terre peut transporter » et « menace la survie continue des sociétés humaines ».

Épuisement des ressources minérales
L’économiste américain roumain Nicholas Georgescu-Roegen, fondateur de l’économie et fondateur de l’économie écologique, a fait valoir que la capacité de charge de la Terre, c’est-à-dire la capacité de la Terre à soutenir les populations comme le stock fini de ressources minérales de la Terre est actuellement extrait et utilisé; et par conséquent, que l’économie mondiale dans son ensemble se dirige vers un effondrement futur inévitable, conduisant à la disparition de la civilisation humaine elle-même. 303f Herman Daly, étudiant en économie écologique et théoricien de Georgescu-Roegen, a proposé argument en affirmant que « … tout ce que nous pouvons faire est d’éviter de gaspiller la capacité limitée de la création à soutenir la vie présente et future [sur Terre]. »: 370

Depuis que Georgescu-Roegen et Daly ont publié ces points de vue, divers chercheurs ont discuté de l’impossibilité existentielle de répartir uniformément le stock limité de ressources minérales de la Terre parmi un nombre inconnu de générations présentes et futures. Ce nombre de générations risque de nous rester inconnu, car il existe peu de moyens de savoir à l’avance si l’humanité finira par être menacée d’extinction. En effet, toute distribution intertemporelle imaginable du stock aboutira inévitablement à un déclin économique universel à un moment ultérieur.: 253–256:165:16–171:150–153:106–109:546–549:142–145

Accident technologique expérimental
Nick Bostrom a suggéré que dans la poursuite de la connaissance, l’humanité pourrait créer par inadvertance un dispositif capable de détruire la Terre et le système solaire. Les recherches en physique nucléaire et en physique des hautes énergies pourraient créer des conditions inhabituelles ayant des conséquences catastrophiques. Par exemple, les scientifiques craignaient que le premier essai nucléaire puisse enflammer l’atmosphère. Plus récemment, d’autres ont craint que le RHIC ou le grand collisionneur de hadrons ne déclenche une catastrophe mondiale en chaîne impliquant des trous noirs, des strangelets ou de faux états de vide. Ces préoccupations particulières ont été réfutées, mais la préoccupation générale demeure.

La biotechnologie pourrait mener à la création d’une pandémie, la guerre chimique pourrait être poussée à l’extrême, la nanotechnologie pourrait mener à la grisaille dans laquelle des robots auto-répliquant hors de contrôle consomment toute la matière vivante sur terre tout en se construisant cas, délibérément ou accidentellement.

Nanotechnologie
De nombreuses technologies à l’échelle nanométrique sont en cours de développement ou actuellement utilisées. Le seul facteur qui semble présenter un risque catastrophique global important est la fabrication moléculaire, une technique qui permettrait de construire des structures complexes avec une précision atomique. La fabrication moléculaire nécessite des avancées significatives en nanotechnologie, mais une fois réalisée, elle pourrait produire des produits très avancés à des coûts peu élevés et en grande quantité dans des nanofactéries de proportions professionnelles. Lorsque les nanofactéries acquièrent la capacité de produire d’autres nanofactéries, la production ne peut être limitée que par des facteurs relativement abondants tels que les intrants, l’énergie et les logiciels.

La fabrication moléculaire pourrait être utilisée pour produire à moindre coût, parmi de nombreux autres produits, des armes hautement perfectionnées et durables. Equipés d’ordinateurs compacts et de moteurs, ils pourraient être de plus en plus autonomes et offrir de nombreuses possibilités.

Chris Phoenix et Treder classent les risques catastrophiques posés par la nanotechnologie en trois catégories:

D’augmenter le développement d’autres technologies telles que l’IA et la biotechnologie.
En permettant la production en masse de produits potentiellement dangereux qui entraînent une dynamique de risque (telle que la course aux armements) en fonction de la manière dont ils sont utilisés.
Des processus auto-entretenus et incontrôlés aux effets destructeurs.

Plusieurs chercheurs affirment que la majeure partie des risques liés à la nanotechnologie provient du potentiel de guerre, de course aux armements et de gouvernement mondial destructeur. Plusieurs raisons ont été avancées pour expliquer pourquoi la disponibilité d’armes en nanotechnologie pourrait, avec une probabilité significative, conduire à une course aux armements instable (par rapport à la course aux armements nucléaires, par exemple):

Un grand nombre de joueurs peuvent être tentés d’entrer dans la course car le seuil pour le faire est faible;
La capacité de fabriquer des armes avec une fabrication moléculaire sera peu coûteuse et facile à dissimuler;
Par conséquent, le manque de compréhension des capacités des autres parties peut inciter les joueurs à s’armer par prudence ou à lancer des frappes préventives;
La fabrication moléculaire peut réduire la dépendance au commerce international, facteur potentiel de promotion de la paix;
Les guerres d’agression peuvent constituer une menace économique moindre pour l’agresseur, car la fabrication est bon marché et les humains peuvent ne pas être nécessaires sur le champ de bataille.
Étant donné que l’autorégulation par tous les acteurs étatiques et non étatiques semble difficile à réaliser, des mesures visant à atténuer les risques liés à la guerre ont été principalement proposées dans le domaine de la coopération internationale. L’infrastructure internationale pourrait être élargie, ce qui donnerait plus de souveraineté au niveau international. Cela pourrait aider à coordonner les efforts de maîtrise des armements. Des institutions internationales dédiées spécifiquement à la nanotechnologie (peut-être par analogie à l’Agence internationale de l’énergie atomique (AIEA)) ou à la maîtrise des armements peuvent également être conçues. On peut également faire des progrès technologiques différents sur les technologies défensives, une politique que les joueurs devraient généralement privilégier. Le Centre pour une nanotechnologie responsable suggère également certaines restrictions techniques. Une transparence accrue en ce qui concerne les capacités technologiques pourrait constituer un autre facteur important de maîtrise des armements.

Gray goo est un autre scénario catastrophique, proposé par Eric Drexler dans son livre Engines of Creation de 1986. Il a été un thème dans les médias et la fiction grand public. Ce scénario implique de minuscules robots auto-répliqués qui consomment toute la biosphère en l’utilisant comme source d’énergie et de blocs de construction. De nos jours, les experts en nanotechnologie, y compris Drexler, discréditent le scénario. Selon Phoenix, « une soi-disant goo grise ne pourrait être que le produit d’un processus d’ingénierie délibéré et difficile, pas un accident ».

Guerre et destruction massive
Les scénarios les plus fréquemment explorés sont la guerre nucléaire et les dispositifs apocalyptiques. Bien que la probabilité d’une guerre nucléaire par an soit faible, le professeur Martin Hellman l’a qualifié d’inévitable à long terme. à moins que la probabilité approche de zéro, il arrivera inévitablement un jour où la chance de la civilisation sera écoulée. Au cours de la crise des missiles à Cuba, le président américain John F. Kennedy a estimé que les chances de guerre nucléaire se situaient entre « sur trois et même ». Les États-Unis et la Russie ont un arsenal combiné de 14 700 armes nucléaires et on estime à 15 700 le nombre d’armes nucléaires dans le monde. Au-delà du nucléaire, la guerre biologique constitue une autre menace militaire pour l’humanité. En revanche, la guerre chimique, bien que capable de créer plusieurs catastrophes locales, est peu susceptible de créer une catastrophe mondiale.

La guerre nucléaire pourrait entraîner des morts sans précédent et la destruction de l’habitat. La détonation d’un grand nombre d’armes nucléaires aurait des effets immédiats, à court terme et à long terme sur le climat, provoquant un temps froid et une réduction de la lumière du soleil et de la photosynthèse, susceptibles de provoquer des bouleversements importants dans les civilisations avancées. Cependant, alors que la perception populaire considère parfois la guerre nucléaire comme «la fin du monde», les experts attribuent une faible probabilité à l’extinction de la guerre nucléaire. En 1982, Brian Martin a estimé qu’un échange nucléaire entre les États-Unis et l’Union soviétique pourrait tuer directement entre 400 et 450 millions de personnes, principalement aux États-Unis, en Europe et en Russie et peut-être plusieurs centaines de millions en conséquence. Une enquête menée par le Future of Humanity Institute estimait que la probabilité de disparition de la guerre serait de 4% d’ici 2100, avec une probabilité d’extinction de 1% due à la guerre nucléaire.

Population mondiale et crise agricole

Le 20ème siècle a vu une augmentation rapide de la population humaine due aux développements médicaux et aux augmentations massives de la productivité agricole telle que la révolution verte. Entre 1950 et 1984, alors que la révolution verte transformait l’agriculture dans le monde, la production céréalière mondiale a augmenté de 250%. La révolution verte dans l’agriculture a aidé la production alimentaire à suivre le rythme de la croissance démographique mondiale ou à favoriser la croissance démographique. L’énergie nécessaire à la révolution verte était fournie par des combustibles fossiles sous forme d’engrais (gaz naturel), de pesticides (pétrole) et d’irrigation à base d’hydrocarbures. David Pimentel, professeur d’écologie et d’agriculture à l’Université Cornell, et Mario Giampietro, chercheur principal à l’Institut national de recherche sur l’alimentation et la nutrition (INRAN). une économie durable à 200 millions. Pour réaliser une économie durable et éviter une catastrophe, les Etats-Unis doivent réduire leur population d’au moins un tiers et la population mondiale devra être réduite des deux tiers, indique l’étude.

Les auteurs de cette étude estiment que la crise agricole mentionnée débutera dans le monde après 2020 et deviendra critique après 2050. Le géologue Dale Allen Pfeiffer affirme que les prochaines décennies pourraient voir la flambée des prix des produits alimentaires sans soulagement et une famine massive sur une niveau mondial tel que jamais connu auparavant.

Le blé est la troisième céréale la plus produite par l’humanité. Les infections fongiques existantes telles que Ug99 (une sorte de rouille de la tige) peuvent causer 100% de pertes de récolte dans la plupart des variétés modernes. Peu ou pas de traitement est possible et l’infection se propage par le vent. Si les grandes régions productrices de céréales du monde étaient infectées, la crise de la disponibilité du blé qui en résulterait entraînerait une flambée des prix et une pénurie d’autres produits alimentaires.

Perception du risque
Selon Eliezer Yudkowsky, de nombreux biais cognitifs peuvent influencer la manière dont les individus et les groupes considèrent l’importance des risques de catastrophe mondiaux, notamment l’insensibilité à la portée, la disponibilité heuristique, les biais de représentativité, l’effet de la confiance excessive. Par exemple, l’insensibilité à la portée conduit les individus à se préoccuper plus souvent des menaces individuelles que de ceux qui s’adressent à des groupes plus importants (c’est pourquoi leurs dons pour des causes altruistes ne sont pas proportionnels à l’ampleur du problème); c’est pourquoi ils ne considèrent pas l’extinction de l’humanité comme un problème aussi sérieux qu’il devrait l’être. De même, le biais de représentativité les amène à minimiser les catastrophes qui ont peu à voir avec celles qu’ils connaissaient et à supposer que les dommages qu’ils causent ne seront pas beaucoup plus graves.

On a souvent remarqué que la majorité des risques anthropiques mentionnés ci-dessus correspondent souvent à des mythes très anciens, ceux de Prométhée, à Pandora et, plus récemment, à l’apprenti sorcier. Le symbolisme des quatre cavaliers de l’Apocalypse, les trois dernières guerres représentatives, la famine et la mort, est déjà dans l’Ancien Testament le choix inconfortable offert par Dieu au roi David. Les divers risques de révolte des machines apparaissent dans le mythe du Golem et, associés aux biotechnologies, dans l’histoire du monstre de Frankenstein. D’un autre côté, il a été suggéré que les récits de catastrophes de diverses traditions religieuses (où ils sont le plus souvent liés à la colère des divinités) correspondraient à des souvenirs de catastrophes réelles (par exemple, le déluge serait lié à la reconnexion de la mer). de Marmara avec la mer Noire); sous le nom de catastrophisme cohérent (catastrophisme cohérent), Victor Clube et Bill Napier ont développé l’hypothèse que les pluies de météores cataclysmiques ont donné naissance à de nombreux mythes cosmologiques, allant de l’histoire de la destruction de Sodome et Gomorrhe. Courty) aux descriptions de l’Apocalypse; Cependant, leurs idées sont bien acceptées par la communauté scientifique.

L’existence de ces interprétations «mythiques», ainsi que de nombreuses prophéties de la fin du monde n ° 15, facilite un phénomène de refus partiel ou total de prendre en compte ces risques de catastrophe, connus sous le nom de syndrome de Cassandra: alors que les risques anthropiques sont minimisés en les attribuant à des peurs irrationnelles, les catastrophes décrites dans les mythes sont jugées exagérées par l’ignorance et la déformation des souvenirs.

L’analyse des risques causés par l’homme souffre de deux biais opposés: les lanceurs d’alerte ont tendance à exagérer le risque d’être entendu ou même à dénoncer des risques imaginaires au nom du principe de précaution; de puissants intérêts économiques cherchant à inverser les risques liés à leurs activités, comme le montre par exemple le cas de l’institut Heartland, et plus généralement l’analyse des stratégies de désinformation décrites dans Le doute des marchands.

Interprétant rationnellement le mythe de l’âge d’or n ° 20, Jared Diamond constate enfin que certaines catastrophes (les « effondrements » de Nick Bostrom) peuvent faire passer des sociétés non détectées qui souffrent d’un manque de mémoire suffisant en histoire; c’est ce qu’il explique la catastrophe écologique subie par les habitants de l’île de Pâques.

Précautions et prévention
Le concept de gouvernance mondiale respectant les limites planétaires a été proposé comme approche de la réduction des risques de catastrophe. En particulier, le domaine de la géoingénierie envisage de manipuler l’environnement mondial pour lutter contre les changements anthropiques de la composition atmosphérique. Des techniques complètes de stockage et de conservation des aliments ont été explorées, mais leur coût serait élevé et pourraient aggraver les conséquences de la malnutrition. David Denkenberger et Joshua Pearce ont suggéré d’utiliser une variété d’aliments alternatifs pour réduire le risque de famine lié aux catastrophes mondiales telles qu’un hiver nucléaire ou un changement climatique soudain, par exemple en convertissant la biomasse (arbres et bois) en produits comestibles; Cependant, il faudra beaucoup de progrès dans ce domaine pour que ces méthodes permettent à une grande partie de la population de survivre. D’autres suggestions de réduction des risques, telles que les stratégies de déviation des astéroïdes pour faire face aux risques d’impact, ou le désarmement nucléaire, se révèlent difficiles à mettre en œuvre sur le plan économique ou politique. Enfin, la colonisation de l’espace est une autre proposition visant à augmenter les chances de survie face à un risque existentiel, mais des solutions de ce type, actuellement inaccessibles, nécessiteront sans doute, entre autres, l’utilisation de ingénierie.

Parmi les précautions prises individuellement ou collectivement, on peut citer:

L’établissement de réserves alimentaires (prévues pour plusieurs années) et d’autres ressources réalisées par des survivants dans le cadre, par exemple, de la construction d’abris antiatomiques.

La réserve mondiale de semences de Svalbard, une voûte souterraine située sur l’île norvégienne de Spitsbergen, vise à préserver la sécurité des semences de toutes les cultures vivrières du monde, préservant ainsi la diversité génétique; certaines de ces graines doivent être conservées plusieurs milliers d’années. En mai 2017, la voûte a été inondée par la fonte du pergélisol en raison du réchauffement de la planète, sans endommager l’approvisionnement en semences.

Analyses et revues
L’importance des risques détaillés dans les sections précédentes est rarement refusée, même si les risques pour l’homme sont souvent minimisés. Cependant, les analyses de Nick Bostrom ont été critiquées de plusieurs points de vue distincts.

Avis techniques
Bon nombre des risques mentionnés par Nick Bostrom dans ses livres sont considérés comme exagérés (voire imaginaires), ou correspondent à des échelles de temps si vastes qu’il semble quelque peu absurde de les regrouper avec des menaces presque immédiates. De plus, les calculs de probabilité, d’espoir ou d’utilité sont difficiles ou mal définis pour ce genre de situation, comme le montrent, par exemple, des paradoxes tels que l’argument de l’apocalypse et comme le reconnaît Nick Bostrom. lui-même. En particulier, il a développé un argument éthique affirmant que le nombre exorbitant de nos descendants voués au néant par une catastrophe existentielle justifie d’employer tous les moyens possibles pour diminuer, si faible soit-il, la probabilité de l’accident; Cependant, les calculs sur lesquels il se base ont été contestés et cet argument pourrait bien être une erreur.

Nick Bostrom et Max Tegmark ont ​​publié en 2005 une analyse du risque d’instabilité de l’univers entier. Indépendamment de la validité de leurs calculs (tendant à montrer que le risque est très faible), on peut se demander s’il ya vraiment un sens à parler d’un désastre dont personne ne serait prévenu à l’avance et qui ne laisserait aucun observateur; Au cours d’une discussion similaire sur le risque d’une réaction en chaîne enflammant toute l’atmosphère, un ami avait répondu aux inquiétudes de Richard Hamming par « Ne t’inquiète pas, Hamming, il n’y aura personne à vous reprocher ».

Positions philosophiques
Les analyses de Nick Bostrom sont basées sur le transhumanisme, une idéologie préconisant l’utilisation de la science et de la technologie pour améliorer les caractéristiques physiques et mentales des êtres humains. et il considère que tout ce qui pourrait empêcher l’humanité de tout son potentiel est un risque existentiel.

Cette position a été sévèrement critiquée, en partie parce qu’elle conduit à nier les valeurs auxquelles l’humanité est attachée au nom de valeurs futures hypothétiques. Steve Fuller a particulièrement noté que si une catastrophe mondiale ne détruit pas toute l’humanité, les survivants peuvent légitimement considérer dans certains cas que leur situation s’est améliorée.