Risco catastrófico global antropogênico

Um risco global catastrófico é um evento futuro hipotético que poderia prejudicar o bem-estar humano em escala global, mesmo incapacitando ou destruindo a civilização moderna. Um evento que poderia causar a extinção humana ou restringir permanentemente e drasticamente o potencial da humanidade é conhecido como um risco existencial.

Os potenciais riscos catastróficos globais incluem riscos antropogênicos causados ​​por seres humanos (tecnologia, governança, mudança climática) e riscos naturais ou externos. Exemplos de riscos tecnológicos são a inteligência artificial hostil e a biotecnologia ou nanotecnologia destrutiva. Governança global insuficiente ou maligna cria riscos no domínio social e político, como uma guerra global, incluindo o holocausto nuclear, o bioterrorismo usando organismos geneticamente modificados, o ciberterrorismo destruindo infraestruturas críticas como a rede elétrica; ou o fracasso em administrar uma pandemia natural. Os problemas e riscos no domínio da governança do sistema terrestre incluem o aquecimento global, a degradação ambiental, incluindo a extinção de espécies, a fome como resultado da distribuição não equitativa de recursos, a superpopulação humana, a quebra de safras e a agricultura não sustentável. Exemplos de riscos não-antropogênicos são um evento de impacto de asteróide, uma erupção supervulcânica, uma explosão de raios gama letal, uma tempestade geomagnética destruindo equipamentos eletrônicos, mudanças climáticas naturais a longo prazo ou vida extraterrestre hostil.

Classificações

Global catastrófica vs. existencial
O filósofo Nick Bostrom classifica os riscos de acordo com seu escopo e intensidade. Um “risco catastrófico global” é qualquer risco que seja pelo menos “global” em escopo e não seja subjetivamente “imperceptível” em intensidade. Aqueles que são pelo menos “transgeracionais” (afetando todas as futuras gerações) em escopo e “terminais” em intensidade são classificados como riscos existenciais. Enquanto um risco global catastrófico pode matar a grande maioria da vida na Terra, a humanidade ainda pode se recuperar. Um risco existencial, por outro lado, é aquele que tanto destrói a humanidade (e, presumivelmente, quase todas as espécies mais rudimentares de formas de vida não-humanas e / ou vida vegetal) inteiramente ou pelo menos impede qualquer chance de civilização se recuperar. Bostrom considera que os riscos existenciais são muito mais significativos.

Da mesma forma, em Catástrofe: Risco e Resposta, Richard Posner destaca e agrupa eventos que provocam “derrubada ou ruína total” em escala global, e não “local ou regional”. Posner destaca tais eventos como merecedores de atenção especial em termos de custo-benefício, porque eles poderiam, direta ou indiretamente, comprometer a sobrevivência da raça humana como um todo. Os eventos de Posner incluem impactos de meteoros, aquecimento global descontrolado, cinza viscoso, bioterrorismo e acidentes com aceleradores de partículas.

Pesquisadores experimentam dificuldades em estudar diretamente a extinção humana, já que a humanidade nunca foi destruída antes. Embora isso não signifique que não será no futuro, dificulta os riscos existenciais de modelagem, em parte devido ao viés de sobrevivência.

Outras classificações
Bostrom identifica quatro tipos de risco existencial. “Golpes” são catástrofes repentinas, que podem ser acidentais ou deliberadas. Ele acha que as fontes mais prováveis ​​de franja são o uso malicioso da nanotecnologia, a guerra nuclear e a possibilidade de que o universo seja uma simulação que acabará. “Crunches” são cenários em que a humanidade sobrevive, mas a civilização é lentamente destruída. As causas mais prováveis ​​disso, acredita ele, são o esgotamento dos recursos naturais, um governo global estável que impede o progresso tecnológico, ou pressões disgênicas que reduzem a inteligência média. “Gritos” são futuros indesejáveis. Por exemplo, se uma única mente aprimora seus poderes através da fusão com um computador, ela pode dominar a civilização humana. Bostrom acredita que esse cenário é mais provável, seguido por uma superinteligência falha e um regime totalitário repressivo. “Choramingas” são o declínio gradual da civilização humana ou valores atuais. Ele acha que a causa mais provável seria evolução alterando a preferência moral, seguida de invasão extraterrestre.

Importância moral do risco existencial

Alguns estudiosos favoreceram fortemente a redução do risco existencial, alegando que isso beneficia grandemente as gerações futuras. Derek Parfit argumenta que a extinção seria uma grande perda porque nossos descendentes poderiam sobreviver por quatro bilhões de anos antes que a expansão do Sol tornasse a Terra inabitável. Nick Bostrom argumenta que há um potencial ainda maior em colonizar o espaço. Se os seres humanos futuros colonizarem o espaço, eles poderão sustentar um grande número de pessoas em outros planetas, potencialmente durando por trilhões de anos. Portanto, reduzir o risco existencial, mesmo que em pequena quantidade, teria um impacto muito significativo no número esperado de pessoas que existirão no futuro.

O desconto exponencial pode tornar esses benefícios futuros muito menos significativos. No entanto, Jason Matheny argumentou que tal desconto é inadequado ao avaliar o valor da redução do risco existencial.

Alguns economistas discutiram a importância dos riscos catastróficos globais, embora não os riscos existenciais. Martin Weitzman argumenta que a maior parte do dano econômico esperado das mudanças climáticas pode vir da pequena chance de que o aquecimento exceda em muito as expectativas de médio alcance, resultando em danos catastróficos. Richard Posner argumentou que estamos fazendo muito pouco, em geral, sobre riscos pequenos, difíceis de estimar, de catástrofes de grande escala.

Numerosos vieses cognitivos podem influenciar o julgamento das pessoas sobre a importância dos riscos existenciais, incluindo a insensibilidade ao escopo, o desconto hiperbólico, a heurística da disponibilidade, a falácia da conjunção, a heurística do efeito e o efeito do excesso de confiança.

A insensibilidade do escopo influencia o quão ruim as pessoas consideram a extinção da raça humana. Por exemplo, quando as pessoas são motivadas a doar dinheiro para causas altruístas, a quantidade que estão dispostas a dar não aumenta linearmente com a magnitude da questão: as pessoas estão mais ou menos preocupadas com 200.000 aves ficando presas no petróleo, pois são cerca de 2.000. Da mesma forma, as pessoas estão mais preocupadas com as ameaças aos indivíduos do que com grupos maiores.

Há razões econômicas que podem explicar por que tão pouco esforço está sendo aplicado na redução do risco existencial. É um bem global, portanto, mesmo que uma nação grande diminua, essa nação apenas desfrutará de uma pequena fração do benefício de fazê-lo. Além disso, a grande maioria dos benefícios pode ser desfrutada por gerações futuras distantes, e, embora esses quadrilhões de pessoas futuras, teoricamente, talvez estivessem dispostos a pagar enormes quantias pela redução do risco existencial, não existe mecanismo para tal transação.

Fontes potenciais de risco
Algumas fontes de risco catastrófico são naturais, como impactos de meteoros ou supervulcões. Alguns destes causaram extinções em massa no passado. Por outro lado, alguns riscos são causados ​​pelo homem, como o aquecimento global, a degradação ambiental, as pandemias modificadas e a guerra nuclear.

Antropogênico
O Cambridge Project, da Universidade de Cambridge, afirma que as “maiores ameaças” à espécie humana são criadas pelo homem; são inteligência artificial, aquecimento global, guerra nuclear e biotecnologia desonesta. O Instituto do Futuro da Humanidade também afirma que a extinção humana é mais provável de resultar de causas antropogênicas do que de causas naturais.

Inteligência artificial
Tem sido sugerido que aprender computadores que rapidamente se tornam superinteligentes pode tomar ações imprevistas, ou que os robôs superariam a humanidade (um cenário de singularidade tecnológica). Devido à excepcional capacidade de agendamento e organização e à variedade de novas tecnologias que poderia desenvolver, é possível que a primeira superinteligência da Terra emergisse rapidamente e se tornaria inigualável e inigualável: concebivelmente, seria capaz de produzir quase qualquer resultado possível, e ser capaz de frustrar virtualmente qualquer tentativa que ameaçasse impedi-lo de alcançar seus objetivos. Poderia eliminar, eliminando se quisesse, qualquer outro intelecto rival desafiador; alternativamente, pode manipulá-los ou persuadi-los a mudar seu comportamento em relação a seus próprios interesses, ou pode simplesmente obstruir suas tentativas de interferência. No livro de Bostrom, Superinteligência: Caminhos, Perigos, Estratégias, ele define isso como o problema do controle. O físico Stephen Hawking, o fundador da Microsoft, Bill Gates, e o fundador da SpaceX, Elon Musk, ecoaram essas preocupações, com a teoria de Hawking de que isso poderia “significar o fim da raça humana”.

Em 2009, a Associação para o Avanço da Inteligência Artificial (AAAI) organizou uma conferência para discutir se os computadores e robôs poderiam adquirir qualquer tipo de autonomia, e o quanto essas habilidades poderiam representar uma ameaça ou perigo. Eles observaram que alguns robôs adquiriram várias formas de semi-autonomia, incluindo a possibilidade de encontrar fontes de energia por conta própria e serem capazes de escolher independentemente alvos para atacar com armas. Eles também notaram que alguns vírus de computador podem evitar a eliminação e conseguiram a “inteligência barata”. Eles notaram que a autoconsciência, como descrita na ficção científica, é provavelmente improvável, mas que havia outros riscos e armadilhas potenciais. Várias fontes de mídia e grupos científicos observaram tendências separadas em áreas diferentes, que podem resultar em maiores funcionalidades robóticas e autonomia, e que apresentam algumas preocupações inerentes.

Uma pesquisa com especialistas em IA estimou que a chance de o aprendizado de máquina em escala humana ter um efeito de longo prazo “extremamente ruim (por exemplo, extinção humana)” é de 5%. Uma pesquisa do Instituto do Futuro da Humanidade estimou uma probabilidade de extinção de 5% pela superinteligência até 2100. Eliezer Yudkowsky acredita que os riscos da inteligência artificial são mais difíceis de prever do que qualquer outro risco conhecido devido ao viés do antropomorfismo. Como as pessoas baseiam seus julgamentos de inteligência artificial em sua própria experiência, ele afirma que eles subestimam o poder potencial da IA.

Biotecnologia
A biotecnologia pode representar um risco global catastrófico na forma de organismos de bioengenharia (vírus, bactérias, fungos, plantas ou animais). Em muitos casos, o organismo será um patógeno de seres humanos, gado, culturas ou outros organismos de que dependemos (por exemplo, polinizadores ou bactérias intestinais). No entanto, qualquer organismo capaz de perturbar catastroficamente as funções do ecossistema, por exemplo, ervas daninhas altamente competitivas, supercomprometendo colheitas essenciais, representa um risco de biotecnologia.

Uma catástrofe de biotecnologia pode ser causada pela liberação acidental de um organismo geneticamente modificado que foge de ambientes controlados, pela liberação planejada de tal organismo, que acaba por ter interações imprevistas e catastróficas com ecossistemas naturais ou agro-ecossistemas essenciais, ou pelo uso intencional de biológicos. agentes em guerra biológica, ataques de bioterrorismo. Patógenos podem ser intencionalmente ou não geneticamente modificados para alterar a virulência e outras características. Por exemplo, um grupo de pesquisadores australianos alterou involuntariamente características do vírus da varíola do rato ao tentar desenvolver um vírus para esterilizar roedores. O vírus modificado tornou-se altamente letal, mesmo em camundongos vacinados e naturalmente resistentes. Os meios tecnológicos para modificar geneticamente as características do vírus provavelmente se tornarão mais amplamente disponíveis no futuro, se não forem devidamente regulados.

As aplicações terroristas da biotecnologia têm sido historicamente raras. Até que ponto isso é devido a uma falta de capacidades ou motivação não é resolvida. No entanto, dado o desenvolvimento atual, mais riscos de novos patógenos projetados devem ser esperados no futuro. O crescimento exponencial foi observado no setor de biotecnologia, e Noun e Chyba prevêem que isso levará a grandes aumentos nas capacidades biotecnológicas nas próximas décadas. Eles argumentam que os riscos da guerra biológica e do bioterrorismo são distintos das ameaças nucleares e químicas porque os patógenos biológicos são mais fáceis de produzir em massa e sua produção é difícil de controlar (especialmente quando as capacidades tecnológicas estão se tornando disponíveis mesmo para usuários individuais). Uma pesquisa do Instituto do Futuro da Humanidade estimou em 2100 uma probabilidade de extinção de 2% de pandemias modificadas.

Noun e Chyba propõem três categorias de medidas para reduzir os riscos da biotecnologia e pandemias naturais: regulação ou prevenção de pesquisas potencialmente perigosas, melhor reconhecimento de surtos e desenvolvimento de instalações para mitigar surtos de doenças (por exemplo, vacinas melhores e / ou mais amplamente distribuídas).

Ataque cibernético
Os ataques cibernéticos têm o potencial de destruir tudo, desde dados pessoais até redes elétricas. Christine Peterson, co-fundadora e ex-presidente do Foresight Institute, acredita que um ataque cibernético em redes elétricas tem o potencial de ser um risco catastrófico.

Aquecimento global
O aquecimento global refere-se ao aquecimento causado pela tecnologia humana desde o século XIX ou anterior. As projeções de mudanças climáticas futuras sugerem um aquecimento global adicional, aumento do nível do mar e um aumento na frequência e gravidade de alguns eventos climáticos extremos e desastres relacionados ao clima. Os efeitos do aquecimento global incluem perda de biodiversidade, estresse nos sistemas existentes de produção de alimentos, maior disseminação de doenças infecciosas conhecidas, como a malária, e rápida mutação de microorganismos. Em novembro de 2017, uma declaração de 15.364 cientistas de 184 países indicou que os níveis crescentes de gases de efeito estufa pelo uso de combustíveis fósseis, crescimento da população humana, desmatamento e uso excessivo de terras para produção agrícola, particularmente por ruminantes agrícolas para consumo de carne, formas que prevêem um aumento da miséria humana nas próximas décadas.

Desastre ambiental
Um desastre ambiental ou ecológico, como a quebra de safra mundial e o colapso de serviços ecossistêmicos, poderia ser induzido pelas tendências atuais de superpopulação, desenvolvimento econômico e agricultura não sustentável. A maioria dos cenários ambientais envolve um ou mais dos seguintes: Evento de extinção holocênico, escassez de água que poderia levar aproximadamente metade da população da Terra sem água potável, declínio de polinizadores, pesca excessiva, desmatamento em massa, desertificação, mudança climática ou episódios de poluição da água. Detectada no início do século XXI, uma ameaça nessa direção é o distúrbio do colapso das colmeias, um fenômeno que poderia prenunciar a iminente extinção das abelhas ocidentais. Como a abelha desempenha um papel vital na polinização, sua extinção prejudicaria gravemente a cadeia alimentar.

Um relatório de outubro de 2017 publicado no The Lancet afirmou que ar tóxico, água, solo e locais de trabalho foram coletivamente responsáveis ​​por 9 milhões de mortes em todo o mundo em 2015, particularmente da poluição do ar que foi ligada a mortes por aumento da suscetibilidade a doenças não infecciosas, como doença cardíaca, acidente vascular cerebral e câncer de pulmão. O relatório advertiu que a crise da poluição estava excedendo “o envelope da quantidade de poluição que a Terra pode carregar” e “ameaça a sobrevivência contínua das sociedades humanas”.

Related Post

Esgotamento de recursos minerais
O economista romeno americano Nicholas Georgescu-Roegen, um progenitor da economia e fundador paradigmático da economia ecológica, argumentou que a capacidade de sustentação da Terra – ou seja, a capacidade da Terra de sustentar populações humanas e níveis de consumo – deve diminuir em algum momento no futuro. como o estoque finito de recursos minerais da Terra está sendo atualmente extraído e colocado em uso; e, consequentemente, que a economia mundial como um todo está se encaminhando para um inevitável colapso futuro, levando ao desaparecimento da própria civilização humana. 303.31 O economista ecológico e teórico do estado estacionário Herman Daly, um estudante de Georgescu-Roegen, propôs o mesmo argumento afirmando que “… tudo o que podemos fazer é evitar desperdiçar a capacidade limitada de criação para apoiar a vida presente e futura [na Terra].”: 370

Desde que Georgescu-Roegen e Daly publicaram essas visões, vários estudiosos no campo têm discutido a impossibilidade existencial de distribuir uniformemente o estoque finito de recursos minerais da Terra entre um número desconhecido de gerações presentes e futuras. É provável que este número de gerações permaneça desconhecido para nós, pois há pouca maneira de saber antecipadamente se ou quando a humanidade acabará por enfrentar a extinção. De fato, qualquer distribuição intertemporal concebível do estoque inevitavelmente terminará com o declínio econômico universal em algum ponto futuro.: 253-256: 165: 168 – 17: 15-153: 1060-109: 546-549: 142-145

Acidente de tecnologia experimental
Nick Bostrom sugeriu que, na busca do conhecimento, a humanidade poderia, inadvertidamente, criar um dispositivo que pudesse destruir a Terra e o Sistema Solar. Investigações em física nuclear e de alta energia poderiam criar condições incomuns com conseqüências catastróficas. Por exemplo, os cientistas temem que o primeiro teste nuclear possa inflamar a atmosfera. Mais recentemente, outros se preocuparam que o RHIC ou o Large Hadron Collider pudessem iniciar um desastre global de reação em cadeia envolvendo buracos negros, estrangulamentos ou falsos estados de vácuo. Essas preocupações específicas foram refutadas, mas a preocupação geral permanece.

A biotecnologia poderia levar à criação de uma pandemia, a guerra química poderia ser levada ao extremo, a nanotecnologia poderia levar a cinzas em que robôs auto-replicantes descontrolados consomem toda a matéria viva na Terra enquanto constroem mais de si mesmos – em ambos casos, deliberadamente ou por acidente.

Nanotecnologia
Muitas tecnologias em nanoescala estão em desenvolvimento ou atualmente em uso. O único que parece representar um risco catastrófico global significativo é a manufatura molecular, uma técnica que possibilitaria a construção de estruturas complexas com precisão atômica. A manufatura molecular exige avanços significativos em nanotecnologia, mas uma vez alcançada pode produzir produtos altamente avançados a baixo custo e em grandes quantidades em nanofábricas de proporções de mesa. Quando as nanofábricas ganham a capacidade de produzir outras nanofábricas, a produção só pode ser limitada por fatores relativamente abundantes, como insumos, energia e software.

A manufatura molecular poderia ser usada para produzir barato, entre muitos outros produtos, armas altamente avançadas e duráveis. Estando equipados com computadores e motores compactos, eles podem ser cada vez mais autônomos e possuem uma grande variedade de recursos.

Chris Phoenix e Treder classificam os riscos catastróficos colocados pela nanotecnologia em três categorias:

De aumentar o desenvolvimento de outras tecnologias, como IA e biotecnologia.
Permitindo a produção em massa de produtos potencialmente perigosos que causam dinâmicas de risco (como corridas armamentistas) dependendo de como eles são usados.
De processos autoperpetuadores descontrolados com efeitos destrutivos.

Vários pesquisadores afirmam que a maior parte do risco da nanotecnologia vem do potencial de levar à guerra, às corridas armamentistas e ao governo global destrutivo. Várias razões têm sido sugeridas por que a disponibilidade de armamento de nanotecnologia pode, com probabilidade significativa, levar a corridas armamentistas instáveis ​​(em comparação com, por exemplo, corridas de armas nucleares):

Um grande número de jogadores pode ser tentado a entrar na corrida, já que o limite para isso é baixo;
A capacidade de fabricar armas com fabricação molecular será barata e fácil de esconder;
Portanto, a falta de percepção sobre as capacidades das outras partes pode levar os jogadores a se despreocuparem ou a lançar ataques preventivos;
A manufatura molecular pode reduzir a dependência do comércio internacional, um fator potencial de promoção da paz;
Guerras de agressão podem representar uma ameaça econômica menor para o agressor, já que a fabricação é barata e os humanos podem não ser necessários no campo de batalha.
Uma vez que a auto-regulação por todos os intervenientes estatais e não estatais parece difícil de alcançar, medidas para mitigar os riscos relacionados com a guerra foram propostas principalmente na área da cooperação internacional. A infra-estrutura internacional pode ser expandida, dando mais soberania ao nível internacional. Isso poderia ajudar a coordenar esforços para o controle de armas. Instituições internacionais dedicadas especificamente à nanotecnologia (talvez analogamente à Agência Internacional de Energia Atômica – AIEA) ou ao controle geral de armas também podem ser projetadas. Pode-se também fazer progressos tecnológicos diferenciais em tecnologias defensivas, uma política que os jogadores geralmente deveriam favorecer. O Centro de Nanotecnologia Responsável também sugere algumas restrições técnicas. Uma melhor transparência em relação às capacidades tecnológicas pode ser outro importante facilitador para o controle de armas.

Gray goo é outro cenário catastrófico, que foi proposto por Eric Drexler em seu livro 1986 Engines of Creation e tem sido um tema na mídia e na ficção. Esse cenário envolve minúsculos robôs auto-replicantes que consomem toda a biosfera usando-a como fonte de energia e blocos de construção. Hoje em dia, no entanto, especialistas em nanotecnologia – incluindo Drexler – desacreditam o cenário. De acordo com a Phoenix, uma “gosma cinzenta chamada só poderia ser o produto de um processo de engenharia deliberado e difícil, não um acidente”.

Guerra e destruição em massa
Os cenários mais explorados são a guerra nuclear e os dispositivos do juízo final. Embora a probabilidade de uma guerra nuclear por ano seja pequena, o professor Martin Hellman a descreveu como inevitável a longo prazo; a menos que a probabilidade se aproxime de zero, inevitavelmente chegará um dia em que a sorte da civilização se esgota. Durante a crise dos mísseis cubanos, o presidente dos EUA, John F. Kennedy, estimou as chances de uma guerra nuclear “em algum lugar entre um em cada três e até mesmo”. Os Estados Unidos e a Rússia têm um arsenal combinado de 14.700 armas nucleares, e há um total estimado de 15.700 armas nucleares no mundo. Além da nuclear, outras ameaças militares à humanidade incluem a guerra biológica (BW). Em contrapartida, é improvável que a guerra química, embora seja capaz de criar múltiplas catástrofes locais, crie uma catástrofe global.

A guerra nuclear poderia resultar em mortes humanas sem precedentes e destruição de habitats. A detonação de um grande número de armas nucleares teria efeitos imediatos, de curto prazo e de longo prazo sobre o clima, causando frio e redução da luz solar e da fotossíntese, o que pode gerar transtornos significativos em civilizações avançadas. No entanto, enquanto a percepção popular às vezes leva a guerra nuclear como “o fim do mundo”, os especialistas atribuem baixa probabilidade à extinção humana da guerra nuclear. Em 1982, Brian Martin estimou que uma troca nuclear EUA-União Soviética poderia matar 400-450 milhões diretamente, principalmente nos Estados Unidos, Europa e Rússia, e talvez várias centenas de milhões através de conseqüências de acompanhamento nessas mesmas áreas. Uma pesquisa do Instituto do Futuro da Humanidade estimou uma probabilidade de extinção de 4% da guerra até 2100, com 1% de chance de extinção da guerra nuclear.

Percepção de risco
De acordo com Eliezer Yudkowsky, muitos vieses cognitivos podem influenciar a maneira pela qual indivíduos e grupos consideram a importância dos riscos globais de desastres, incluindo insensibilidade ao escopo, disponibilidade heurística, viés de representatividade, heurística de efeitos e o efeito do excesso de confiança. Por exemplo, a insensibilidade ao escopo leva as pessoas a se preocuparem mais com ameaças individuais do que aquelas dirigidas a grupos maiores (é por isso que suas doações por causas altruístas não são proporcionais à magnitude do problema); é por isso que eles não consideram a extinção da humanidade como um problema tão sério quanto deveria ser. Da mesma forma, o viés de representatividade leva-os a minimizar os desastres que têm pouco a ver com os que estavam cientes, e assumindo que os danos que causam não serão muito mais sérios.

Tem sido freqüentemente notado que a maioria dos riscos antropogênicos mencionados acima freqüentemente correspondem a mitos muito antigos, os de Prometeu, em Pandora e, mais recentemente, o de aprendiz de feiticeiro é o mais representativo. O simbolismo dos quatro Cavaleiros do Apocalipse, os três últimos representantes da Guerra, Fome e Morte, já está no Antigo Testamento como a desconfortável escolha oferecida por Deus ao rei Davi. Os vários riscos da revolta das máquinas aparecem no mito do Golem e, combinados com as biotecnologias, na história do monstro de Frankenstein. Por outro lado, tem sido sugerido que as narrativas de desastres de várias tradições religiosas (onde elas são mais freqüentemente relacionadas à ira das divindades) corresponderiam às memórias de catástrofes reais (por exemplo, o Dilúvio estaria ligado à reconexão do Mar de Marmara com o Mar Negro); Sob o nome de catastrofismo coerente (catastrofismo coerente), Victor Clube e Bill Napier desenvolveram a hipótese de que chuvas de meteoros cataclísmicos deram origem a muitos mitos cosmológicos, que vão desde a história da destruição de Sodoma e Gomorra (tese também defendida por Marie-Agnes). Courty) às descrições de Apocalipse; No entanto, suas idéias são bem aceitas pela comunidade científica.

A existência dessas interpretações “míticas”, assim como inúmeras profecias de fim de mundo No. 15, facilitam um fenômeno de recusa parcial ou total a levar em conta esses riscos de desastres, conhecidos como síndrome de Cassandra: enquanto os riscos antropogênicos são minimizados atribuindo-os aos medos irracionais, as catástrofes descritas nos mitos são julgadas exageradas pela ignorância e pela deformação das memórias.

A análise dos riscos causados ​​pelos seres humanos sofre de dois vieses opostos: os denunciantes tendem a exagerar o risco de serem ouvidos, ou mesmo a denunciar riscos imaginários em nome do princípio da precaução; interesses econômicos poderosos que tentam reverter minimizam os riscos associados às suas atividades, como mostrado, por exemplo, no caso do instituto Heartland, e mais geralmente a análise das estratégias de desinformação descritas em The doubt Merchants.

Dando uma interpretação racional do mito da Idade de Ouro No 20, Jared Diamond é finalmente observado que alguns desastres (os “colapsos” de Nick Bostrom) podem passar por empresas não detectadas que sofrem com a falta de uma memória suficiente da história; É como ele explica o desastre ecológico sofrido pelos habitantes da Ilha de Páscoa.

Precauções e Prevenção
O conceito de governança global, respeitando as fronteiras planetárias, tem sido proposto como uma abordagem à redução do risco de desastres. Em particular, o campo da geoengenharia visa manipular o ambiente global para combater mudanças antropogênicas na composição atmosférica. Técnicas abrangentes de armazenamento e conservação de alimentos foram exploradas, mas seus custos seriam altos e poderiam agravar as consequências da desnutrição. David Denkenberger e Joshua Pearce sugeriram o uso de uma variedade de alimentos alternativos para reduzir o risco de fome relacionado a catástrofes globais, como um inverno nuclear ou mudanças climáticas repentinas, por exemplo, convertendo biomassa (árvores e madeira) em produtos comestíveis; No entanto, será preciso muito progresso nessa área para que esses métodos permitam que uma grande fração da população sobreviva. Outras sugestões de redução de risco, como estratégias de deflexão de asteróides para lidar com riscos de impacto, ou desarmamento nuclear, demonstram ser econômica ou politicamente difíceis de implementar. Finalmente, A colonização do espaço é outra proposta feita para aumentar as chances de sobrevivência diante de um risco existencial, mas soluções deste tipo, que atualmente são inacessíveis, sem dúvida exigirão, entre outras coisas, o uso de larga escala. Engenharia.

Entre as precauções tomadas individualmente ou coletivamente incluem:

O estabelecimento de reservas de alimentos (planejadas por vários anos) e outros recursos feitos por sobreviventes no âmbito, por exemplo, da construção de abrigos antiatômicos.

A Reserva Mundial de Sementes de Svalbard, um cofre subterrâneo na ilha norueguesa de Spitsbergen, pretendia manter seguras as sementes de todas as culturas alimentares no mundo, preservando assim a diversidade genética; algumas dessas sementes devem ser mantidas por vários milhares de anos. Em maio de 2017, o cofre foi inundado com o degelo do permafrost devido ao aquecimento global, sem danificar o fornecimento de sementes.

Análises e análises
A importância dos riscos detalhados nas seções anteriores raramente é negada, embora os riscos para os seres humanos sejam freqüentemente minimizados; no entanto, as análises de Nick Bostrom foram criticadas a partir de várias perspectivas distintas.

Revisões Técnicas
Muitos dos riscos mencionados por Nick Bostrom em seus livros são considerados exagerados (mesmo imaginários), ou correspondem a escalas de tempo tão vastas que parece um tanto absurdo agrupá-las com ameaças quase imediatas. Além disso, os cálculos de probabilidade, esperança ou utilidade são difíceis ou mal definidos para esse tipo de situação, como mostrado, por exemplo, por paradoxos como o argumento do apocalipse, e como reconhece Nick Bostrom. ele mesmo. Em particular, ele desenvolveu um argumento ético afirmando que o número exorbitante de nossos descendentes condenados ao nada por uma catástrofe existencial justifica empregar todos os meios concebíveis para diminuir, por menor que seja, a probabilidade do acidente; no entanto, os cálculos nos quais ela é baseada foram contestados e esse argumento pode muito bem ser apenas uma falácia.

Nick Bostrom e Max Tegmark publicaram em 2005 uma análise do risco de instabilidade de todo o universo. Independentemente da validade de seus cálculos (tendendo a mostrar que o risco é muito baixo), pode-se imaginar se realmente existe um significado para falar de um desastre do qual ninguém seria avisado com antecedência, e que não deixaria nenhum observador; Durante uma discussão semelhante sobre o risco de uma reação em cadeia inflamar toda a atmosfera, um amigo respondeu às ansiedades de Richard Hamming por “Não se preocupe, Hamming, não haverá ninguém para culpá-lo”.

Posições filosóficas
As análises de Nick Bostrom baseiam-se no transumanismo, uma ideologia que defende o uso da ciência e da tecnologia para melhorar as características físicas e mentais dos seres humanos; e ele considera que tudo o que poderia impedir a humanidade de todo o seu potencial é um risco existencial.

Esta posição tem sido severamente criticada, em parte porque leva à negação dos valores presentes que a humanidade está ligada em prol de valores futuros hipotéticos. Steve Fuller observou particularmente que, se uma catástrofe global não destruir toda a humanidade, os sobreviventes podem legitimamente considerar, em alguns casos, que sua situação melhorou.

Share