Riesgo catastrófico global antropogénico

Un riesgo global catastrófico es un evento futuro hipotético que podría dañar el bienestar humano a escala global, incluso paralizando o destruyendo la civilización moderna. Un evento que podría causar la extinción humana o limitar de manera permanente y drástica el potencial de la humanidad se conoce como un riesgo existencial.

Los posibles riesgos catastróficos globales incluyen los riesgos antropogénicos, causados ​​por los seres humanos (tecnología, gobernanza, cambio climático) y los riesgos naturales o externos. Ejemplos de riesgos tecnológicos son la inteligencia artificial hostil y la biotecnología destructiva o la nanotecnología. La gobernanza mundial insuficiente o maligna crea riesgos en el ámbito social y político, como una guerra mundial, incluido el holocausto nuclear, el bioterrorismo que utiliza organismos genéticamente modificados, el ciberterrorismo que destruye infraestructuras críticas como la red eléctrica; o la incapacidad de manejar una pandemia natural. Los problemas y riesgos en el dominio de la gobernanza del sistema terrestre incluyen el calentamiento global, la degradación ambiental, incluida la extinción de especies, el hambre como resultado de una distribución de recursos no equitativa, la superpoblación humana, las malas cosechas y la agricultura no sostenible. Ejemplos de riesgos no antropogénicos son un evento de impacto de asteroides, una erupción supervolcánica, un estallido letal de rayos gamma, una tormenta geomagnética que destruye equipos electrónicos, cambios climáticos naturales a largo plazo o vida extraterrestre hostil.

Clasificaciones

Global catastrófico vs. existencial
El filósofo Nick Bostrom clasifica los riesgos de acuerdo con su alcance e intensidad. Un «riesgo catastrófico global» es cualquier riesgo que es al menos de alcance «global» y no es subjetivamente «imperceptible» en intensidad. Aquellos que son al menos «transgeneracionales» (que afectan a todas las generaciones futuras) en alcance y «terminales» en intensidad se clasifican como riesgos existenciales. Si bien un riesgo catastrófico global puede matar a la gran mayoría de la vida en la Tierra, la humanidad aún podría potencialmente recuperarse. Por otro lado, un riesgo existencial destruye a la humanidad (y, presumiblemente, a todas las especies menos rudimentarias de vida y / o vida vegetal no rudimentarias) por completo o al menos impide cualquier oportunidad de recuperación de la civilización. Bostrom considera que los riesgos existenciales son mucho más significativos.

De manera similar, en Catastrophe: Risk and Response, Richard Posner individualiza y agrupa los eventos que provocan un «derrocamiento total o una ruina» a escala global, en lugar de «local o regional». Posner señala estos eventos como dignos de atención especial en términos de costo-beneficio, ya que pueden poner en peligro directa o indirectamente la supervivencia de la raza humana en su conjunto. Los eventos de Posner incluyen impactos de meteoritos, calentamiento global desbocado, contaminación gris, bioterrorismo y accidentes con aceleradores de partículas.

Los investigadores tienen dificultades para estudiar directamente la extinción humana, ya que la humanidad nunca ha sido destruida. Si bien esto no significa que no lo será en el futuro, sí dificulta el modelado de riesgos existenciales, debido en parte al sesgo de supervivencia.

Otras clasificaciones
Bostrom identifica cuatro tipos de riesgo existencial. «Explosiones» son catástrofes repentinas, que pueden ser accidentales o deliberadas. Él piensa que las fuentes más probables de golpes son el uso malicioso de la nanotecnología, la guerra nuclear y la posibilidad de que el universo sea una simulación que terminará. Los «crujidos» son escenarios en los que la humanidad sobrevive, pero la civilización se destruye lentamente. Las causas más probables de esto, él cree, son el agotamiento de los recursos naturales, un gobierno global estable que impide el progreso tecnológico o presiones disgénicas que reducen la inteligencia promedio. Los «chillidos» son futuros indeseables. Por ejemplo, si una sola mente mejora sus poderes al fusionarse con una computadora, podría dominar la civilización humana. Bostrom cree que este escenario es muy probable, seguido por superinteligencia defectuosa y un régimen totalitario represivo. «Gimoteos» son el declive gradual de la civilización humana o los valores actuales. Él piensa que la causa más probable sería la evolución cambiando la preferencia moral, seguida por la invasión extraterrestre.

Importancia moral del riesgo existencial

Algunos académicos han favorecido fuertemente la reducción del riesgo existencial sobre la base de que beneficia enormemente a las generaciones futuras. Derek Parfit sostiene que la extinción sería una gran pérdida porque nuestros descendientes podrían potencialmente sobrevivir durante cuatro mil millones de años antes de que la expansión del Sol haga que la Tierra sea inhabitable. Nick Bostrom argumenta que hay un potencial aún mayor para colonizar el espacio. Si los humanos futuros colonizan el espacio, es posible que puedan mantener a una gran cantidad de personas en otros planetas, y que potencialmente dure billones de años. Por lo tanto, reducir el riesgo existencial incluso en una pequeña cantidad tendría un impacto muy significativo en la cantidad esperada de personas que existirán en el futuro.

El descuento exponencial podría hacer que estos beneficios futuros sean mucho menos significativos. Sin embargo, Jason Matheny ha argumentado que tal descuento es inapropiado cuando se evalúa el valor de la reducción de riesgo existencial.

Algunos economistas han discutido la importancia de los riesgos catastróficos globales, aunque no existen riesgos existenciales. Martin Weitzman argumenta que la mayor parte del daño económico esperado por el cambio climático puede provenir de la pequeña posibilidad de que el calentamiento supere con creces las expectativas de alcance medio, lo que da como resultado un daño catastrófico. Richard Posner ha argumentado que estamos haciendo muy poco, en general, sobre los riesgos pequeños y difíciles de estimar de catástrofes a gran escala.

Numerosos sesgos cognitivos pueden influir en el juicio de la gente sobre la importancia de los riesgos existenciales, incluida la insensibilidad al alcance, el descuento hiperbólico, la heurística de disponibilidad, la falacia de conjunción, la heurística afectiva y el efecto de exceso de confianza.

La insensibilidad del alcance influye en lo mal que las personas consideran que es la extinción de la raza humana. Por ejemplo, cuando las personas están motivadas para donar dinero a causas altruistas, la cantidad que están dispuestos a dar no aumenta linealmente con la magnitud del problema: a la gente le preocupa más o menos que 200,000 aves se queden atrapadas en el petróleo ya que son aproximadamente 2,000. Del mismo modo, las personas a menudo están más preocupadas por las amenazas a las personas que a los grupos más grandes.

Posibles fuentes de riesgo
Algunas fuentes de riesgo catastrófico son naturales, como impactos de meteoritos o supervolcanes. Algunos de estos han causado extinciones en masa en el pasado. Por otro lado, algunos riesgos son provocados por el hombre, como el calentamiento global, la degradación ambiental, las pandemias modificadas y la guerra nuclear.

Antropogénico
El Proyecto de Cambridge en la Universidad de Cambridge afirma que las «mayores amenazas» para la especie humana son artificiales; son inteligencia artificial, calentamiento global, guerra nuclear y biotecnología deshonesta. El Instituto del Futuro de la Humanidad también afirma que es más probable que la extinción humana resulte de causas antropogénicas que causas naturales.

Inteligencia artificial
Se ha sugerido que aprender computadoras que rápidamente se vuelven superinteligentes puede tomar medidas imprevistas, o que los robots superarían a la humanidad (un escenario de singularidad tecnológica). Debido a su capacidad organizativa y de programación excepcional y al rango de nuevas tecnologías que podría desarrollar, es posible que la primera superinteligencia de la Tierra que emergiera pudiera volverse inigualable e inigualable: concebiblemente sería capaz de producir casi cualquier resultado posible, y capaz de frustrar prácticamente cualquier intento que amenazara con impedir el logro de sus objetivos. Podría eliminar, eliminando si así lo desea, cualquier otro intelecto rival desafiante; alternativamente, podría manipularlos o persuadirlos para que cambien su comportamiento hacia sus propios intereses, o simplemente puede obstruir sus intentos de interferencia. En el libro de Bostrom, Superintelligence: Paths, Dangers, Strategies, define esto como el problema de control. El físico Stephen Hawking, el fundador de Microsoft, Bill Gates, y el fundador de SpaceX, Elon Musk, se hicieron eco de estas preocupaciones, con Hawking teorizando que esto podría «deletrear el fin de la raza humana».

En 2009, la Asociación para el Avance de la Inteligencia Artificial (AAAI) organizó una conferencia para analizar si las computadoras y los robots podrían ser capaces de adquirir cualquier tipo de autonomía, y qué tanto estas habilidades podrían representar una amenaza o peligro. Señalaron que algunos robots han adquirido diversas formas de semiautonomía, incluida la posibilidad de encontrar fuentes de energía por su cuenta y poder elegir de forma independiente objetivos para atacar con armas. También señalaron que algunos virus informáticos pueden evadir la eliminación y han logrado la «inteligencia de cucarachas». Señalaron que la autoconciencia tal como se representa en la ciencia ficción es probablemente poco probable, pero que había otros riesgos potenciales y peligros. Varias fuentes de medios y grupos científicos han notado tendencias separadas en diferentes áreas que juntas podrían resultar en mayores funcionalidades y autonomía robótica, y que plantean algunas preocupaciones inherentes.

Una encuesta de expertos en IA estimó que la posibilidad de que el aprendizaje automático a nivel humano tenga un efecto a largo plazo «extremadamente malo (p. Ej., Extinción humana)» en la humanidad es del 5%. Una encuesta del Instituto Future of Humanity calculó un 5% de probabilidad de extinción por superinteligencia antes del 2100. Eliezer Yudkowsky cree que los riesgos de la inteligencia artificial son más difíciles de predecir que cualquier otro riesgo conocido debido al sesgo del antropomorfismo. Dado que las personas basan sus juicios de inteligencia artificial en su propia experiencia, él afirma que subestiman el poder potencial de la IA.

Biotecnología
La biotecnología puede plantear un riesgo global catastrófico en forma de organismos creados por ingeniería genética (virus, bacterias, hongos, plantas o animales). En muchos casos, el organismo será un patógeno de humanos, ganado, cultivos u otros organismos de los que dependemos (por ejemplo, polinizadores o bacterias intestinales). Sin embargo, cualquier organismo capaz de alterar catastróficamente las funciones de los ecosistemas, por ejemplo, las malezas altamente competitivas, superando a los cultivos esenciales, plantea un riesgo biotecnológico.

Una catástrofe biotecnológica puede ser causada por la liberación accidental de un organismo modificado genéticamente que escapa de ambientes controlados, por la liberación planificada de dicho organismo que luego tiene interacciones imprevistas y catastróficas con ecosistemas naturales o agroecosistemas esenciales, o por el uso intencional de biológicos agentes en guerra biológica, ataques de bioterrorismo. Los patógenos pueden modificarse genética o intencionalmente para cambiar la virulencia y otras características. Por ejemplo, un grupo de investigadores australianos cambió involuntariamente las características del virus de la viruela del ratón al tratar de desarrollar un virus para esterilizar roedores. El virus modificado se volvió altamente letal incluso en ratones vacunados y naturalmente resistentes. Los medios tecnológicos para modificar genéticamente las características del virus probablemente estarán más ampliamente disponibles en el futuro si no se regulan adecuadamente.

Las aplicaciones terroristas de la biotecnología han sido históricamente infrecuentes. En qué medida esto se debe a una falta de capacidades o motivación no se resuelve. Sin embargo, dado el desarrollo actual, es de esperar que en el futuro exista un mayor riesgo de nuevos patógenos diseñados. Se ha observado un crecimiento exponencial en el sector de la biotecnología, y Noun y Chyba predicen que esto llevará a importantes aumentos de las capacidades biotecnológicas en las próximas décadas. Argumentan que los riesgos de la guerra biológica y el bioterrorismo son distintos de las amenazas nucleares y químicas porque los patógenos biológicos son más fáciles de producir en masa y su producción es difícil de controlar (especialmente cuando las capacidades tecnológicas están disponibles incluso para usuarios individuales). Una encuesta del Future of Humanity Institute estimó un 2% de probabilidad de extinción de pandemias modificadas para el año 2100.

Noun y Chyba proponen tres categorías de medidas para reducir los riesgos de la biotecnología y las pandemias naturales: regulación o prevención de investigaciones potencialmente peligrosas, mejor reconocimiento de brotes y desarrollo de instalaciones para mitigar los brotes de enfermedades (por ejemplo, vacunas mejores y / o más ampliamente distribuidas).

Ataque cibernetico
Los ataques cibernéticos tienen el potencial de destruir todo, desde datos personales hasta redes eléctricas. Christine Peterson, cofundadora y ex presidenta del Foresight Institute, cree que un ataque cibernético contra redes eléctricas tiene el potencial de ser un riesgo catastrófico.

Calentamiento global
El calentamiento global se refiere al calentamiento causado por la tecnología humana desde el siglo XIX o antes. Las proyecciones del cambio climático futuro sugieren un mayor calentamiento global, el aumento del nivel del mar y un aumento en la frecuencia y gravedad de algunos fenómenos meteorológicos extremos y desastres relacionados con el clima. Los efectos del calentamiento global incluyen la pérdida de biodiversidad, el estrés en los sistemas productores de alimentos existentes, el aumento de la propagación de enfermedades infecciosas conocidas, como la malaria, y la rápida mutación de microorganismos. En noviembre de 2017, una declaración de 15.364 científicos de 184 países indicó que los niveles crecientes de gases de efecto invernadero provenientes del uso de combustibles fósiles, el crecimiento de la población humana, la deforestación y el uso excesivo de tierras para la producción agrícola, particularmente por los rumiantes agrícolas formas que pronostican un aumento de la miseria humana en las próximas décadas.

Desastre ambiental
Un desastre ambiental o ecológico, como la pérdida de cosechas y el colapso de los servicios ecosistémicos, podría ser inducido por las tendencias actuales de superpoblación, desarrollo económico y agricultura no sostenible. La mayoría de los escenarios ambientales involucran uno o más de los siguientes: evento de extinción del Holoceno, escasez de agua que podría llevar a aproximadamente la mitad de la población de la Tierra sin agua potable, disminución de polinizadores, sobrepesca, deforestación masiva, desertificación, cambio climático o masivos episodios de contaminación del agua. Detectada a principios del siglo XXI, una amenaza en esta dirección es el desorden del colapso de colonias, un fenómeno que podría presagiar la inminente extinción de la abeja occidental. Como la abeja desempeña un papel vital en la polinización, su extinción perturbaría gravemente la cadena alimentaria.

Un informe de octubre de 2017 publicado en The Lancet declaró que el aire, el agua, los suelos y los lugares de trabajo tóxicos eran colectivamente responsables de 9 millones de muertes en todo el mundo en 2015, particularmente de la contaminación del aire que se relacionaba con muertes al aumentar la susceptibilidad a enfermedades no infecciosas, como enfermedad cardíaca, accidente cerebrovascular y cáncer de pulmón. El informe advirtió que la crisis de contaminación excedía «la envolvente sobre la cantidad de contaminación que la Tierra puede transportar» y «amenaza la supervivencia continua de las sociedades humanas».

Agotamiento de recursos minerales
El economista rumano-estadounidense Nicholas Georgescu-Roegen, un progenitor en economía y el paradigmático fundador de la economía ecológica, ha argumentado que la capacidad de carga de la Tierra -esto es, la capacidad de la Tierra para sustentar poblaciones humanas y niveles de consumo- disminuirá en el futuro ya que el stock finito de recursos minerales de la Tierra se está extrayendo y poniendo en uso actualmente; y consecuentemente, que la economía mundial como un todo se encamina hacia un colapso futuro inevitable, llevando a la desaparición de la civilización humana misma. 303f El economista ecológico y teórico del estado estacionario Herman Daly, un estudiante de Georgescu-Roegen, ha propuesto el mismo argumento al afirmar que «… todo lo que podemos hacer es evitar desperdiciar la capacidad limitada de la creación para apoyar la vida presente y futura [en la Tierra]»: 370

Desde que Georgescu-Roegen y Daly publicaron estos puntos de vista, varios académicos en el campo han estado discutiendo la imposibilidad existencial de distribuir el stock finito de recursos minerales de la Tierra en forma pareja entre un número desconocido de generaciones presentes y futuras. Es probable que este número de generaciones siga siendo desconocido para nosotros, ya que hay pocas maneras de saber de antemano si la humanidad eventualmente se enfrentará o no a la extinción. En efecto, cualquier distribución intertemporal concebible de la acción inevitablemente terminará con un declive económico universal en algún momento futuro .:253-256:165:168-171:150-153:106-109:546-549:142-145

Accidente de tecnología experimental
Nick Bostrom sugirió que, en la búsqueda del conocimiento, la humanidad podría crear inadvertidamente un dispositivo que podría destruir la Tierra y el Sistema Solar. Las investigaciones en física nuclear y de alta energía podrían crear condiciones inusuales con consecuencias catastróficas. Por ejemplo, los científicos temen que la primera prueba nuclear pueda encender la atmósfera. Más recientemente, a otros les preocupaba que el RHIC o el Gran Colisionador de Hadrones pudiera iniciar un desastre global de reacción en cadena que involucra agujeros negros, strangelets o estados de falso vacío. Estas preocupaciones particulares han sido refutadas, pero la preocupación general permanece.

La biotecnología podría llevar a la creación de una pandemia, la guerra química podría llevarse a un extremo, la nanotecnología podría llevar a la sustancia gris en la que los robots autorreplicantes fuera de control consuman toda la materia viva en la tierra mientras construyen más de sí mismos: en ambos casos, ya sea deliberadamente o por accidente.

Nanotecnología
Muchas tecnologías a nanoescala están en desarrollo o actualmente en uso. El único que parece plantear un riesgo catastrófico global significativo es la fabricación molecular, una técnica que permitiría construir estructuras complejas con precisión atómica. La fabricación molecular requiere avances significativos en nanotecnología, pero una vez lograda, podría producir productos altamente avanzados a bajo costo y en grandes cantidades en nanofactorías de proporciones de escritorio. Cuando las nanofactorías obtienen la capacidad de producir otras nanofactorías, la producción solo puede verse limitada por factores relativamente abundantes, como materiales de entrada, energía y software.

La fabricación molecular podría usarse para producir, entre muchos otros productos, armas muy avanzadas y duraderas. Al estar equipados con computadoras y motores compactos, estos podrían ser cada vez más autónomos y tener una amplia gama de capacidades.

Chris Phoenix y Treder clasifican los riesgos catastróficos que plantea la nanotecnología en tres categorías:

De aumentar el desarrollo de otras tecnologías como la IA y la biotecnología.
Al permitir la producción masiva de productos potencialmente peligrosos que causan una dinámica de riesgo (como carreras de armamentos) dependiendo de cómo se usan.
Desde procesos incontrolables que se autoperpetúan con efectos destructivos.

Varios investigadores afirman que la mayor parte del riesgo de la nanotecnología proviene del potencial de provocar guerras, carreras armamentistas y un gobierno global destructivo. Se han sugerido varias razones por las cuales la disponibilidad de armamento nanotecnológico puede conducir con probabilidad a carreras de armamentos inestables (en comparación con, por ejemplo, carreras de armas nucleares):

Una gran cantidad de jugadores pueden tener la tentación de participar en la carrera, ya que el umbral para hacerlo es bajo;
La capacidad de fabricar armas con fabricación molecular será barata y fácil de ocultar;
Por lo tanto, la falta de conocimiento de las capacidades de las otras partes puede tentar a los jugadores a armarse de prudencia o lanzar ataques preventivos;
La fabricación molecular puede reducir la dependencia del comercio internacional, un posible factor de promoción de la paz;
Las guerras de agresión pueden representar una amenaza económica menor para el agresor, ya que la fabricación es barata y es posible que los humanos no sean necesarios en el campo de batalla.
Dado que la autorregulación de todos los actores estatales y no estatales parece difícil de lograr, las medidas para mitigar los riesgos relacionados con la guerra se han propuesto principalmente en el área de la cooperación internacional. La infraestructura internacional puede ampliarse y otorgar más soberanía al nivel internacional. Esto podría ayudar a coordinar esfuerzos para el control de armas. También se pueden diseñar instituciones internacionales dedicadas específicamente a la nanotecnología (quizás análogamente al Organismo Internacional de Energía Atómica (OIEA)) o al control general de armas. También se puede lograr un progreso tecnológico diferencial en las tecnologías defensivas, una política que los jugadores generalmente deberían favorecer. El Centro para la Nanotecnología Responsable también sugiere algunas restricciones técnicas. La mejora de la transparencia con respecto a las capacidades tecnológicas puede ser otro facilitador importante para el control de armamentos.

Grey Goo es otro escenario catastrófico, que fue propuesto por Eric Drexler en su libro de 1986 Engines of Creation y ha sido un tema en los medios de comunicación y la ficción. Este escenario involucra pequeños robots autorreplicantes que consumen toda la biosfera usándola como fuente de energía y bloques de construcción. Hoy en día, sin embargo, los expertos en nanotecnología, incluido Drexler, desacreditan el escenario. Según Phoenix, una «sustancia pegajosa gris» solo podría ser el producto de un proceso de ingeniería deliberado y difícil, no un accidente «.

Guerra y destrucción masiva
Los escenarios que se han explorado con mayor frecuencia son la guerra nuclear y los dispositivos apocalípticos. Aunque la probabilidad de una guerra nuclear por año es escasa, el profesor Martin Hellman la ha descrito como inevitable a la larga; a menos que la probabilidad se acerque a cero, inevitablemente llegará un día en que la suerte de la civilización se agote. Durante la crisis de los misiles en Cuba, el presidente de los EE. UU., John F. Kennedy, calculó las probabilidades de una guerra nuclear en «entre uno y tres o incluso». Los Estados Unidos y Rusia tienen un arsenal combinado de 14.700 armas nucleares, y hay un total estimado de 15.700 armas nucleares en existencia en todo el mundo. Más allá de la energía nuclear, otras amenazas militares para la humanidad incluyen la guerra biológica (BW). Por el contrario, la guerra química, si bien puede crear múltiples catástrofes locales, es poco probable que cree una global.

La guerra nuclear podría arrojar peajes humanos sin precedentes y la destrucción del hábitat. Detonar un gran número de armas nucleares tendría un efecto inmediato, a corto y largo plazo sobre el clima, causando un clima frío y una luz solar reducida y fotosíntesis que pueden generar trastornos significativos en las civilizaciones avanzadas. Sin embargo, mientras que la percepción popular a veces toma la guerra nuclear como «el fin del mundo», los expertos asignan baja probabilidad de extinción humana a partir de la guerra nuclear. En 1982, Brian Martin estimó que un intercambio nuclear entre Estados Unidos y la Unión Soviética podría matar 400-450 millones directamente, principalmente en los Estados Unidos, Europa y Rusia, y tal vez varios cientos de millones más a través de consecuencias de seguimiento en esas mismas áreas. Una encuesta realizada por el Instituto del Futuro de la Humanidad estimó un 4% de probabilidades de extinción debido a la guerra para el año 2100, con un 1% de posibilidades de extinción debido a la guerra nuclear.

La población mundial y la crisis agrícola

El siglo XX experimentó un rápido aumento de la población humana debido a los desarrollos médicos y al aumento masivo de la productividad agrícola, como la Revolución Verde. Entre 1950 y 1984, cuando la Revolución Verde transformó la agricultura en todo el mundo, la producción mundial de cereales aumentó en un 250%. La Revolución Verde en la agricultura ayudó a la producción de alimentos a mantener el ritmo del crecimiento de la población mundial o permitió el crecimiento de la población. La energía para la Revolución Verde provino de combustibles fósiles en forma de fertilizantes (gas natural), pesticidas (petróleo) e irrigación alimentada con hidrocarburos. David Pimentel, profesor de ecología y agricultura en la Universidad de Cornell, y Mario Giampietro, investigador principal del Instituto Nacional de Investigación en Alimentación y Nutrición (INRAN), ubican en su estudio de 1994 Alimentación, Tierra, Población y Economía de EE. UU. una economía sostenible en 200 millones. Para lograr una economía sostenible y evitar un desastre, Estados Unidos debe reducir su población en al menos un tercio, y la población mundial tendrá que reducirse en dos tercios, dice el estudio.

Los autores de este estudio creen que la mencionada crisis agrícola comenzará a tener un efecto en el mundo después de 2020, y se volverá crítica después de 2050. El geólogo Dale Allen Pfeiffer afirma que las próximas décadas podrían ver un aumento en los precios de los alimentos sin alivio y la inanición masiva en un nivel global como nunca antes experimentado.

El trigo es el tercer cereal más producido por la humanidad. Las infecciones fúngicas existentes, como Ug99 (un tipo de roya del tallo) pueden causar pérdidas del 100% de las cosechas en la mayoría de las variedades modernas. Poco o ningún tratamiento es posible y la infección se propaga en el viento. Si las grandes áreas productoras de granos del mundo se infectan, la consiguiente crisis en la disponibilidad de trigo provocaría picos de precios y escasez en otros productos alimenticios.

Percepción del riesgo
Según Eliezer Yudkowsky, muchos sesgos cognitivos pueden influir en la forma en que individuos y grupos consideran la importancia de los riesgos globales de desastres, incluida la insensibilidad al alcance, la disponibilidad heurística, el sesgo de representatividad, la heurística afectiva y el efecto del exceso de confianza. Por ejemplo, la insensibilidad al alcance lleva a las personas a preocuparse más por las amenazas individuales que a las dirigidas a grupos más grandes (esta es la razón por la cual sus donaciones para causas altruistas no son proporcionales a la magnitud del problema); es por eso que no consideran la extinción de la humanidad como un problema tan serio como debería ser. Del mismo modo, el sesgo de representatividad los lleva a minimizar los desastres que tienen poco que ver con aquellos que conocían, y suponiendo que el daño que causan no será mucho más grave.

A menudo se ha notado que la mayoría de los riesgos antropogénicos mencionados anteriormente a menudo corresponden a mitos muy antiguos, los de Prometeo, en Pandora y, más recientemente, el del aprendiz de hechicero es el más representativo. El simbolismo de los cuatro Jinetes del Apocalipsis, los últimos tres Representantes Guerra, Hambre y Muerte, ya está en el Antiguo Testamento como la opción incómoda que Dios le ofreció al Rey David. Los diversos riesgos de revuelta de las máquinas aparecen en el mito del Golem y, combinados con las biotecnologías, en la historia del monstruo de Frankenstein. Por otro lado, se ha sugerido que las narrativas de desastres de varias tradiciones religiosas (donde están más frecuentemente relacionadas con la ira de las deidades) corresponderían a recuerdos de catástrofes reales (por ejemplo, el Diluvio estaría vinculado a la reconexión del Mar). de Mármara con el Mar Negro); bajo el nombre de catastrofismo coherente (catastrofismo coherente), Victor Clube y Bill Napier desarrollaron la hipótesis de que las lluvias de meteoritos catastróficas han dado lugar a muchos mitos cosmológicos, que van desde la historia de la destrucción de Sodoma y Gomorra (tesis también defendida por Marie-Agnes Courty) a las descripciones de Apocalipsis; Sin embargo, sus ideas son bien aceptadas por la comunidad científica.

La existencia de estas interpretaciones «míticas», así como numerosas profecías del final del mundo n. ° 15, facilita un fenómeno de rechazo parcial o total para tener en cuenta estos riesgos de desastre, conocido como síndrome de Cassandra: mientras que los riesgos antropogénicos se minimizan atribuyéndolas a miedos irracionales, las catástrofes descritas en los mitos se juzgan exageradas por la ignorancia y la deformación de los recuerdos.

El análisis de los riesgos causados ​​por los seres humanos sufre de dos sesgos opuestos: los denunciantes tienden a exagerar el riesgo de ser oídos, o incluso a denunciar riesgos imaginarios en nombre del principio de precaución; los poderosos intereses económicos que intentan revertir minimizan los riesgos asociados con sus actividades, como lo demuestra, por ejemplo, el caso del instituto Heartland, y más generalmente el análisis de las estrategias de desinformación descritas en The doubt Merchants.

Dando una interpretación racional del mito del Siglo de Oro n. ° 20, se observa finalmente a Jared Diamond que algunos desastres (los «colapsos» de Nick Bostrom) pueden pasar desapercibidos a las empresas que sufren la falta de memoria suficiente; es tal como explica el desastre ecológico sufrido por los habitantes de la Isla de Pascua.

Precauciones y prevención
El concepto de gobernanza global que respeta los límites planetarios se ha propuesto como un enfoque para la reducción del riesgo de desastres. En particular, el campo de la geoingeniería prevé la manipulación del entorno global para combatir los cambios antropogénicos en la composición atmosférica. Se han explorado técnicas integrales de almacenamiento y conservación de alimentos, pero sus costos serían elevados y podrían agravar las consecuencias de la malnutrición. David Denkenberger y Joshua Pearce sugirieron utilizar una variedad de alimentos alternativos para reducir el riesgo de inanición debido a catástrofes mundiales como un invierno nuclear o un cambio climático repentino, por ejemplo, la conversión de biomasa (árboles y madera) en productos comestibles; Sin embargo, se requerirá mucho progreso en esta área para que estos métodos permitan que una gran parte de la población sobreviva. Otras sugerencias de reducción de riesgos, como las estrategias de desviación de asteroides para abordar los riesgos de impacto, o el desarme nuclear, resultan ser económica o políticamente difíciles de implementar. Finalmente, la colonización del espacio es otra propuesta hecha para aumentar las posibilidades de supervivencia frente a un riesgo existencial, pero las soluciones de este tipo, que actualmente son inaccesibles, sin duda requerirán, entre otras cosas, el uso de la gran escala. Ingenieria.

Entre las precauciones que se toman de manera individual o colectiva se incluyen:

El establecimiento de reservas de alimentos (planificadas por varios años) y otros recursos hechos por sobrevivientes en el marco de, por ejemplo, la construcción de refugios antiatómicos.

La Reserva Mundial de Semillas de Svalbard, una bóveda subterránea en la isla noruega de Spitsbergen, tenía la intención de mantener las semillas de todos los cultivos alimenticios en el mundo seguras y protegidas, preservando así la diversidad genética; algunas de estas semillas deben mantenerse durante varios miles de años. En mayo de 2017, la bóveda se inundó con el derretimiento del permafrost debido al calentamiento global, sin dañar el suministro de semillas.

Análisis y revisiones
La importancia de los riesgos detallados en las secciones anteriores rara vez se niega, a pesar de que los riesgos para los humanos a menudo se minimizan; sin embargo, los análisis de Nick Bostrom han sido criticados desde varias perspectivas distintas.

Revisiones Técnicas
Muchos de los riesgos mencionados por Nick Bostrom en sus libros se consideran exagerados (incluso imaginarios), o corresponden a escalas de tiempo tan vastas que parece un tanto absurdo agruparlos con amenazas casi inmediatas. Además, los cálculos de probabilidad, esperanza o utilidad son difíciles o están mal definidos para este tipo de situación, como se muestra, por ejemplo, con paradojas como el argumento apocalíptico, y como reconoce Nick Bostrom. él mismo. En particular, desarrolló un argumento ético que afirmaba que el número exorbitante de nuestros descendientes condenados a la nada por una catástrofe existencial justifica el empleo de todos los medios imaginables para disminuir, por pequeña que sea, la probabilidad del accidente; sin embargo, los cálculos en los que se basa han sido impugnados y este argumento puede ser solo una falacia.

Nick Bostrom y Max Tegmark publicaron en 2005 un análisis del riesgo de inestabilidad de todo el universo. Independientemente de la validez de sus cálculos (que tienden a mostrar que el riesgo es muy bajo), uno puede preguntarse si realmente hay un significado para hablar de un desastre del cual nadie debería ser advertido de antemano, y que no deja ningún observador; durante una discusión similar sobre el riesgo de una reacción en cadena que encendía toda la atmósfera, un amigo había respondido a las ansiedades de Richard Hamming diciendo: «No te preocupes, Hamming, no habrá nadie a quien culpar».

Posiciones filosóficas
Los análisis de Nick Bostrom se basan en el transhumanismo, una ideología que aboga por el uso de la ciencia y la tecnología para mejorar las características físicas y mentales de los seres humanos; y considera que todo lo que podría prevenir a la humanidad de todo su potencial es un riesgo existencial.

Esta posición ha sido severamente criticada, en parte porque lleva a la negación de los valores que la humanidad presente está asociada a los valores futuros hipotéticos. Steve Fuller señaló particularmente que si una catástrofe global no destruye a toda la humanidad, los sobrevivientes pueden considerar legítimamente en algunos casos que su situación ha mejorado.