fbpx
Wikipedia

Riesgo de catástrofe planetaria

La noción de riesgo de desastre global o catástrofe global es introducida en 2008 por el filósofo Nick Bostrom para designar un evento futuro hipotético que tenga el potencial de degradar el bienestar de la mayoría de la humanidad, por ejemplo, destruyendo civilización moderna. También había propuesto, ya en 2002, llamar riesgo existencial un evento que podría causar la extinción de la humanidad.

Impresión artística de un impacto cósmico. Tal impacto podría haber sido la causa de la extinción de los dinosaurios.

Ámbito

Entre las posibles catástrofes globales se incluyen no solo el cambio climático, las pandemias y guerras nucleares, sino también los riesgos relacionados con la nanotecnología o una absorción por parte de una inteligencia artificial hostil, y los eventos originados en el espacio tales como los impactos de meteoritos.

Un estudio cuantitativo riguroso de estos riesgos es difícil, debido a la incertidumbre acerca de las consecuencias finales del peligro que desencadena la catástrofe, y la probabilidad de este peligro, y también debido a muchos sesgos cognitivos que complican el análisis. Además, un evento que pueda haber causado la extinción de la humanidad o la destrucción completa de la civilización obviamente nunca ha ocurrido desde que existe la especie, y la probabilidad de que ocurra se minimiza. Este fenómeno se conoce en las estadísticas bajo el nombre de sesgo de selección.

Aunque los riesgos de una catástrofe global han sido el tema de muchos escenarios de ciencia ficción (a menudo modernizando mitos muy antiguos como el de Pandora) y de declaraciones alarmistas en los años cincuenta, es solo al principio del siglo XXI que varias organizaciones comenzaron a estudiarlas sistemáticamente, especialmente bajo el impulso de los movimientos transhumanistas.

Clasificaciones

Riesgos mayores

Un riesgo mayor es un evento incierto cuya realización a menudo no es muy probable, pero cuyos efectos negativos son considerables. Los geógrafos y muchos especialistas después de ellos dividen esta noción en tres términos:

  1. el peligro, que es el evento incierto en sí mismo,
  2. los riesgos, que son los valores socioeconómicos o ecológicos sujetos a los efectos del peligro cuando ocurre, y
  3. la vulnerabilidad, que establece el grado en mayor o menor grado de la destrucción de los logros por estos efectos.[1]

Por ejemplo, en el caso del riesgo de inundación de un río, el peligro es la inundación del curso de agua, los riesgos son las personas y los bienes expuestos a la inundación, y finalmente, la vulnerabilidad se mide en particular teniendo en cuenta la altura, resistencia y estanqueidad de los edificios en cuestión.[2]

Riesgo de catástrofe global y riesgo existencial

El filósofo Nick Bostrom introdujo en 2002 la noción de riesgo existencial,[3]​ y en 2008 la noción de riesgo de desastre global,[4]​ en relación con una clasificación de riesgo según su extensión e intensidad,[5]​ el rango desde la escala individual a todas las generaciones futuras, y la intensidad de "imperceptible" hasta "máximo" (los ejemplos se dan en la tabla a continuación). En esta escala, se define un "riesgo de catástrofe global" como al menos "global" (que afecta a la mayoría de los seres humanos) y de "mayor" intensidad (que afecta el bienestar de las personas durante un período prolongado). Un "riesgo existencial" se define como "transgeneracional" y "máximo" (irreversible y fatal a corto plazo). Por lo tanto, un riesgo existencial destruye a la humanidad (o incluso a todas las formas de vida superior) o al menos no deja ninguna posibilidad de la reaparición de una civilización, mientras que una catástrofe global, incluso si matara a la mayoría de los humanos, dejaría una oportunidad para sobrevivir y reconstruir a los otros. Bostrom considera, por lo tanto, que los riesgos existenciales son mucho más significativos;[6]​ también señala que la humanidad no podría haber considerado un riesgo existencial antes de 1950,[n 1]​ y que todas las estrategias diseñadas para reducir los riesgos de catástrofe global son ineficaces frente a las amenazas de extinción completas.[3]

Independientemente de este trabajo, en Catastrophe: Risk and Response, Richard Posner en 2004 agrupó eventos que trajeron "un completo trastorno o ruina" a escala global (en lugar de local o regional), considerándolos como dignos de atención especial, en términos de análisis de costo-beneficio, porque podrían, directa o indirectamente, poner en peligro la supervivencia de la humanidad en su conjunto.[7]​ Entre los eventos discutidos por Posner se encuentran los impactos cósmicos, el calentamiento global, las plagas grises, el bioterrorismo y los accidentes en los aceleradores de partículas.

Casi por definición, los desastres planetarios no solo son riesgos importantes, sino que representan una vulnerabilidad máxima y problemas tan vastos que son imposibles de cuantificar. Esto resulta en una confusión frecuente entre riesgo y peligro en este caso.

Rango e intensidad de riesgo
riesgo imperceptible soportable mayor máximo
personal Pérdida de un cabello Pérdida de un dedo Amputación de una pierna muerte
local Tráfico lento Cortar carreteras destrucción
de infraestructuras
Terremoto de 1755
en Lisboa
total Calentamiento global Año sin verano Destrucción completa
de la capa de ozono
Invierno nuclear
transgeneracional Pérdida de una
especie de escarabajo
Desaparición de los felinos. Extinción del holoceno Fin de la humanidad
 
Francis Fukuyama en 2015

Clasificación según los escenarios

Bostrom identifica cuatro tipos de escenarios de desastres globales. Las "explosiones" son desastres brutales (accidentales o deliberadas); los ejemplos más probables son la guerra nuclear, el uso agresivo (y fuera de control) de la biotecnología o nanotecnología, y los impactos cósmicos. Los colapsos [n 2]​ son escenarios de degradación progresiva de las estructuras sociales en las que la humanidad sobrevive, pero la civilización se destruye irremediablemente, por ejemplo, por el agotamiento de los recursos naturales o por la disminución de las presiones disgénica, bajando la inteligencia media. Los alaridos son escenarios de futuros distópicos, como los regímenes totalitarios que utilizan inteligencias artificiales para controlar la especie humana. Los gemidos son disminuciones graduales en los valores, y después en la civilización.[3]​ Nick Bostrom considera que los últimos tres tipos de escenarios impiden (más o menos definitivamente) que la humanidad se dé cuenta de su potencial. Francis Fukuyama cree que este argumento, que se basa en los valores del transhumanismo, no es suficiente en sí mismo para clasificar a todos como riesgos de catástrofe global.[8]

 
Extensión de los traps siberianos (mapa en alemán)

Fuentes potenciales de riesgo

Entre los riesgos existenciales, es decir, los riesgos de extinción masiva de la biosfera, incluida la especie humana, se encuentran principalmente las causas exógenas naturales, como:

 
La extinción masiva del Pérmico-Triásico señalada como "Final P" en el gráfico.

Tales fenómenos han ocurrido en muchas ocasiones en el pasado, pero su probabilidad de ocurrencia en la escala histórica es a menudo imposible de evaluar por falta de datos científicos suficientes (las observaciones precisas comenzaron hace tres siglos).

Por otro lado, los riesgos de una catástrofe global con mayor frecuencia corresponden a causas endógenas (debido a acciones humanas):

Con el desarrollo de las tecnologías, la destrucción, si no de la raza humana,[n 3]​ al menos de la civilización moderna por las acciones de una nación, una corporación, una comunidad religiosa o de otro tipo, o incluso una acción individual, es más probable que antes desde un punto de vista estadístico. Sin embargo, es posible que el desarrollo de técnicas de seguridad reduzca estos riesgos, pero sacrificando los derechos humanos y las libertades democráticas .

Algunos escenarios combinan causas naturales y artificiales: una gran tormenta magnética del Sol o una reversión del campo magnético de la Tierra podría bloquear el funcionamiento de los dispositivos electrónicos y las redes que se han vuelto totalmente dependientes de la economía global, dando lugar a una quiebra financiera global y conflictos a gran escala.[10]

 
Una vista de la banquisa alaskeña. Tal vez así era toda la superficie de la Tierra durante la edad de hielo conocida como Tierra Bola de Nieve.

De acuerdo con el Future of Humanity Institute, las causas antropogénicas amenazan más con causar la extinción de la humanidad que las causas naturales .[5][11]​ De manera similar, el Cambridge Project for Existencial Risk (desarrollado en 2012 por el Centro para el Estudio de Riesgos Existenciales de la Universidad de Cambridge [12]​ ) afirma que las "mayores amenazas" para la especie humana son antropogénicas ; Según él, se trata del calentamiento global, las guerras nucleares, las biotecnologías que han escapado al control y las inteligencias artificiales hostiles.[13]

Las listas más detalladas de riesgos que se incluyen a continuación (algunos de los cuales se correlacionan entre sí, por ejemplo, una crisis sistémica que debilita los servicios de salud aumentará el riesgo de una pandemia) se clasifican según una probabilidad estimada decreciente.[14]​ Esta clasificación, que abarca el trabajo de los diversos grupos de estudio que se mencionan a continuación, no encaja bien con las clasificaciones más tradicionales de los geógrafos, que se basan en particular en la tipología de los problemas (ambientales, económicos, etc.).

Riesgos por acciones humanas.

Calentamiento global

El calentamiento global actual (que ya no es cuestionado por la comunidad científica, y la mayoría del cual se atribuye a actividades industriales desde el siglo XIX), conduce a variaciones climáticas anormales en toda la Tierra, y a efectos secundarios como el aumento del nivel del mar y su acidificación. Incluso las proyecciones más moderadas de este calentamiento sugieren que aumentará, aumentando en particular la frecuencia y la intensidad de los fenómenos meteorológicos extremos (olas de calor, inundaciones, tormentas, etc.) y los desastres asociados.[15]

Los efectos indirectos incluyen la pérdida de biodiversidad, el daño al sistema de producción agrícola actual, el aumento de la propagación de enfermedades infecciosas como la malaria y la rápida mutación de microorganismos. En 2015, el reloj del fin del mundo avanzó dos minutos para reflejar el hecho de que el Boletín de los científicos atómicos cree que ahora es un riesgo de desastre global y posiblemente existencial;[16]​ el 26 de enero de 2017, nuevamente se adelantó por treinta segundos considerando los comentarios y los primeros actos de Donald Trump sobre este tema,[17]​ luego avanzó otros treinta segundos el 25 de enero de 2018, debido a la incapacidad de los dirigentes mundiales para hacer frente a las amenazas inminentes de una guerra nuclear y del cambio climático.[18]

Incluso se ha sugerido que exceder un cierto umbral podría hacer que el clima de la Tierra cambie a un estado estable de combustión similar al de Venus (esta es la tesis del embalamiento climático). Escenarios menos extremos, sin hacer la Tierra inhabitable, podrían causar el fin de la civilización.[19]​ Sin embargo, la existencia de climas mucho más cálidos en el pasado relativamente reciente, por ejemplo al comienzo del Eoceno, lleva a muchos expertos a cuestionar que este riesgo sea real.[20][21][22]

Superpoblación y crisis agrarias

Un desastre ecológico, como las cosechas catastróficas seguidas por un colapso en los servicios de los ecosistemas, podría resultar de las tendencias actuales de la superpoblación, el crecimiento económico desenfrenado [23]​ y la falta de agricultura sostenible. La mayoría de los escenarios de desastre involucran uno o más de los siguientes factores: la extinción del Holoceno, la escasez de agua potable (lo que podría llevar a que aproximadamente la mitad de la humanidad tenga solo agua con riesgos para la salud) y la disminución de los polinizadores,[24][25]​ pero también la pesca excesiva, la deforestación masiva, la desertificación, el cambio climático o, finalmente, los episodios de contaminación del agua; muchas de estas preocupaciones ya fueron evidentes en el Informe Meadows de 1972.[26]

 
3 escenarios de evolución de la población mundial entre 1800 y 2100.[27][28]

Incluso sin una catástrofe repentina (las "explosiones" definidas por Nick Bostrom), los desequilibrios entre la población y los recursos alimenticios pueden conducir progresivamente a una gran crisis, la catástrofe maltusiana (son "colapsos" en la misma clasificación). El siglo XX experimentó un rápido aumento de la población mundial [28]​ debido a los avances en medicina y una gran mejora en la productividad agrícola, particularmente a partir de la Revolución Verde.[29][30]​ Así, entre 1950 y 1984, los cambios globales en la agricultura llevaron a un aumento del 250% en la producción de cereales. La Revolución Verde permitió que la producción de alimentos siguiera el ritmo del crecimiento de la población e incluso la promoviera. La energía requerida para el trabajo agrícola fue proporcionada por los combustibles fósiles, ya sea para tractores e irrigación (con motores que consumen hidrocarburos), o para la fabricación de fertilizantes y pesticidas. Pero la llegada del pico del petróleo podría provocar una crisis agrícola.[31][32]

En un estudio titulado Food, Land, Population and the U.S. Economy, David Pimentel (profesor de la Universidad de Cornell) y Mario Giampietro (investigador del National Research Institute en Food and Nutrition) creen que la población máxima de EE. UU. para una economía sostenible no puede exceder los 200 millones. El mismo estudio establece que para evitar desastres, la población mundial debería reducirse en dos tercios;[33]​ piensan que las consecuencias de esta crisis agrícola deberían aparecer a partir de 2020 y ser críticas después de 2050.

Dale Allen Pfeiffer teme que en las próximas décadas se produzca un aumento en los precios de los alimentos, seguido de hambrunas masivas como las que el mundo nunca ha visto .[32][34]​ Estos cálculos se superponen con los de la ONG estadounidense Global Footprint Network, que determina el día del rebasamiento (la fecha en la que se consume por completo la producción mundial anual de recursos renovables), y encuentra que desde 1971 (el año en que ocurrió por primera vez), llega cada año antes. En 2018, ocurrió el 1 de agosto,.[35][36]

Desastres ambientales

 
Las partículas de contaminación del aire de la " Nube Marrón Asiática " (la misma superficie que los Estados Unidos) pueden viajar por todo el planeta.

Además de las crisis mencionadas anteriormente, diversos riesgos ecológicos amenazan la producción agrícola. Así, el trigo, el tercer cereal producido después del maíz y el arroz, sigue siendo susceptible a las infecciones por hongos. Ug99, una variedad de óxido negro, puede causar la falla completa de los cultivos de la mayoría de las variedades modernas.[37]​ La infección se propaga por el viento y no se conoce ningún tratamiento; Si contamina las principales regiones de producción (Estados Unidos, Europa, Rusia y el norte de China), la crisis resultante provocará un alza de los precios, pero también la escasez de otros productos alimenticios.[38]

Al igual que con otros escenarios de desastre, los desplazamientos masivos de población o incluso las guerras deben ser temidos. Por otro lado, a pesar de los debates sobre la introducción de plantas modificadas genéticamente, los riesgos de que esta introducción cause un desastre ecológico global (por ejemplo, la aparición de insectos resistentes a todos los pesticidas o malezas invasivas) parecen insignificantes.[39]

La mayoría de las otras catástrofes ambientales previsibles ( derrames de petróleo, contaminación industrial e incluso accidentes nucleares ) permanecen localizadas. Sin embargo, la nube marrón de Asia podría tener consecuencias climáticas en todo el mundo.[40]​ Del mismo modo, la contaminación del océano parece ser global.

Finalmente, las muertes por contaminación del aire alcanzan un nivel alarmante y causan un déficit económico anual de cientos de miles de millones de dólares, según el Banco Mundial.[41]​ No está claro, sin embargo, que esto sea un desastre global en el sentido de Nick Bostrom, ya que muchas regiones tienen los medios para combatir esta contaminación a nivel local.

Todas las amenazas descritas en las secciones anteriores, consideradas como una crisis global, han sido objeto de varios intentos de advertencia. El 13 de noviembre de 2017, la revista BioScience y el periódico Le Monde publican un manifiesto firmado por 15.364 científicos de 184 países, señalando que desde el llamamiento World Scientists' Warning to Humanity lanzado en 1992 por la Unión de Científicos Preocupados y más de 1.700 científicos independientes, incluida la mayoría de los ganadores de los premios Nobel de la ciencia de entonces:

"No sólo la humanidad ha fallado en hacer progresos suficientes para abordar estos desafíos medioambientales anunciados, pero es muy preocupante ver que la mayoría de ellos han empeorado considerablemente". Y concluyen:

"Para evitar la miseria generalizada y una pérdida catastrófica de la biodiversidad, la humanidad debe adoptar una alternativa más sostenible ambientalmente que la práctica que hoy es propia". [42][43][44]

Guerras y destrucción masiva

 
Castillo Bravo, con una potencia de 15 Mt, explotando sobre Bikini en 1954.

El escenario que más se ha estudiado es el de una guerra nuclear. Aunque la probabilidad anual de tal guerra es baja, Martin Hellman señaló en 1985 que si esta probabilidad permanece constante o no disminuye lo suficientemente rápido, la guerra es inevitable a largo plazo e inevitablemente llegará el día en que se agotará la suerte de la civilización.[45]​ Durante la crisis de los misiles en Cuba, Kennedy estimó las posibilidades de una guerra nuclear "entre una sobre tres y una sobre dos".[46]

En 2015, los Estados Unidos y Rusia tienen un arsenal combinado de 14.700 armas nucleares [47]​ y, teniendo en cuenta otras potencias nucleares, existen 15.700 armas nucleares en el mundo, [47]​ un poder destructivo total de aproximadamente 5.000 megatones (Mt), 250.000 veces más que la bomba de Hiroshima, que es solo una fracción del arsenal de la Guerra Fría. Sin embargo, estas cifras explican las estimaciones pesimistas simbolizados por el Reloj del Apocalipsis, que fue avanzado en 2018 para reflejar la preocupación por la incapacidad de los dirigentes mundiales para hacer frente a las amenazas inminentes de una guerra nuclear. [17][48]

 
Efecto asumido de la Bomba del Zar (la bomba H más grande jamás probada, con una potencia de 57 Mt ) en la región de París: el círculo rojo (radio: 35 km) corresponde a la zona de destrucción completa.

El público en general a menudo identificó la guerra nuclear con el " fin del mundo ", pero hasta principios de la década de 1980, los líderes y los expertos consideraron que había un pequeño riesgo de extinción completa de la humanidad como resultado de tal guerra: en una famosa declaración de 1957, Mao Zedong explicó que no tenía miedo de una guerra nuclear, a la cual "muchos chinos sobrevivirían";[49]​ en 1982, Brian Martin estimó que un intercambio de bombas entre los Estados Unidos y la URSS podría matar directamente de 400 a 450 millones de personas, y tal vez unos cientos de millones más de personas debido a las consecuencias, especialmente en el hemisferio norte, "apenas un poco más del 10% de la humanidad".[50]​ Sin embargo, a partir de 1983, los escenarios más pesimistas, teniendo en cuenta la noción de invierno nuclear,[51][52]​ llevaron al miedo, al menos, a una destrucción completa de la civilización en este caso, debido en particular a la imposibilidad de la agricultura por varios años.[53][54][52]

Las armas del Apocalipsis son una forma definitiva del concepto de disuasión nuclear. Estas son armas suicidas que garantizan que un agresor hipotético perezca con el atacante (y con el resto de la humanidad). Son técnicamente factibles (por ejemplo, en forma de gigantescas bombas H de solución salina de cobalto), pero el concepto se abandonó a principios de la década de 1960 (esencialmente porque, por su propia naturaleza, eran una espada de Damocles para su propietario) [55]​ y ya no forman parte de los riesgos existenciales seriamente considerados.

Otros tipos de armas y conflictos pueden llevar a riesgos de desastres globales, en particular el uso de armas de destrucción masiva ( químicas y biológicas ), pero también ciertas formas de bioterrorismo (porque es probable que desencadenen pandemias incontrolables).[56]

 
Conatos de pánico bancario en Inglaterra: colas de clientes frente a las oficinas del Northern Rock para sacar los ahorros.

Riesgos sistémicos

 
Fulguración solar

Aunque las crisis financieras, como la Gran Depresión, a menudo tuvieron un carácter global en el pasado, hasta ahora no podemos hablar del riesgo de desastre global en sentido estricto. Pero la aceleración de las comunicaciones y el uso masivo de Internet ahora hacen posible dos tipos de colapso: por un lado, una desestabilización de los mecanismos financieros, provocada, por ejemplo, por una amplificación de las fluctuaciones del mercado de valores que escapan a cualquier control (riesgo asociado a las transacciones de alta frecuencia durante el desplome repentino de 2010), o por una crisis de confianza similar a la crisis de las hipotecas subprime, por otra parte, una pérdida física de información o de valores, relacionada con una ruptura de Internet.

El primer riesgo es difícil de medir (y, en particular, mal asegurable). Sin embargo, Internet ha sido diseñado para resistir la mayoría de los posibles ataques o fallas de funcionamiento, y es que a principios del siglo XXI, se observó que una llamarada solar lo suficientemente potente, como la de 1859, como para interrumpir suficientemente comunicaciones y la electrónica para reenviar la civilización al siglo XVIII.[57]

De manera más general, la globalización y la interconexión de los diversos sistemas hacen que a partir de ahora una crisis local o sobre un solo recurso pueda, por efecto dominó, provocar una catástrofe global (se trata de "colapsos" ( crisis ) en el sentido de Nick Bostrom). La más conocida de estas crisis es la llegada del pico del petróleo (y, en particular, sus consecuencias para la agricultura),[31][32]​ pero se anticipa durante varias décadas, y serían solo efectos indirectos inesperados lo que podría convertirlo en un colapso global.

Otros escenarios de crisis sistémicas de este tipo han sido menos estudiados y podrían tener consecuencias difíciles de reparar. Podemos mencionar la " crisis del agua ", que podría llevar a una guerra entre China, India y Pakistán (tres potencias nucleares) para el control de los recursos hídricos del Himalaya,[58][59]​ o la escasez de tierras raras, a priori de poca importancia, pero que puede provocar tensiones en la producción de productos tan diversos como bombillas de bajo consumo, automóviles eléctricos o turbinas eólicas, con importantes consecuencias para la transición energética.[60]

Hacia 1990, Joseph Tainter desarrolló análisis más generales de estos escenarios; en su trabajo más conocido, El colapso de las sociedades complejas,[61]​ donde estudia el colapso de la civilización maya, la civilización Anasazi [62]​ y el Imperio Romano, en términos de la teoría de redes, economía de la energía y teoría de la complejidad. Aunque estas crisis son el resultado de una serie de desastres locales, no inevitables y en las que podemos esperar encontrar caídas más o menos rápidas, Victor Clube y Bill Napier señalaron que los escenarios de desastres sistémicos brutales (los "golpes") provocados por los accidentes locales también son posibles, y dejan solo un pequeño margen de maniobra antes de convertirse en planetarios.

Inteligencia artificial

 
Un algoritmo evolutivo utiliza operadores de selección iterativa (en azul) y variación (en amarillo). i: inicialización, f (X): evaluación ,? : criterio de parada, Se: selección, Cr: cruce, Mu: mutación, Re: reemplazo, X *: óptimo.

En 1993, Vernor Vinge popularizó, bajo el nombre de singularidad tecnológica, la idea de que si el hombre logra construir una inteligencia artificial (IA) superior a él, esta podrá construir otra aún más alta. Esta retroalimentación positiva nos llevaría rápidamente a una superinteligencia inconcebible para nosotros.[63]​ Vinge señala que esto podría ser peligroso para los humanos.[64]​ Esta idea da nacimiento a un movimiento social, el singularitarismo .

Más específicamente, se ha sugerido que las computadoras capaces de aprender podrían convertirse rápidamente en superinteligentes y emprender acciones no planificadas por su programación, incluso hostiles; o que los robots puedan competir con la humanidad.[65]​También es posible que la primera superinteligencia aparente elimine a todas las demás, pudiendo también manipular cualquier inteligencia inferior para lograr sus objetivos.[66]Nick Bostrom llama a esta pregunta el "problema del control".[67]

Stephen Hawking, Bill Gates y Elon Musk han expresado temores de que se hayan desarrollado inteligencias artificiales hasta el punto de estar fuera de control, Hawking agregó que esto podría significar "el fin de la humanidad".[68]​Los expertos participaron en una conferencia en 2009 organizada por la Asociación para el Avance de la Inteligencia Artificial para discutir la posibilidad de que las computadoras y los robots obtengan algún tipo de autonomía y la amenaza que esta eventualidad podría presentar. Además del hecho de que algunos robots han adquirido varias formas de semi-autonomía, que van desde buscar tomas para recargarse hasta la elección de objetivos para atacar, señalan que algunos virus informáticos pueden luchar activamente contra su eliminación y alcanzar "el nivel de inteligencia de las cucarachas". Estos expertos agregan que si una apariencia de conciencia como la que a menudo representa la ciencia ficción es poco probable, no se excluyen otros problemas o peligros.[63]

Más recientemente, varios grupos científicos han observado una aceleración de los avances en inteligencia artificial (incluida la victoria de AlphaGo contra Lee Sedol en marzo de 2016, que se ha convertido en uno de los signos más visibles) que podrían generar nuevas preocupaciones.[69][70][71]Eliezer Yudkowsky piensa que los riesgos creados por la inteligencia artificial son más impredecibles que todos los otros tipos de riesgos y agrega que la investigación sobre este tema está sesgada por el antropomorfismo. En las personas que basan su análisis de la inteligencia artificial en su propia inteligencia, esto les lleva a subestimar las posibilidades de la IA. Además, separa los riesgos en problemas técnicos (algoritmos imperfectos o defectuosos que impiden que la IA logre sus objetivos), y fallos "filosóficos", que son mucho más perniciosos y difíciles de controlar, donde los objetivos de la IA son realmente perjudiciales para la humanidad.[72]​Nick Bostrom se unió a esta posición publicando en 2014 Superinteligencia: Caminos, Peligros, Estrategias.[73]

Biotecnología

 
Señal de advertencia de peligro biológico .

La biotecnología puede crear un riesgo de catástrofe global al desarrollar agentes infecciosos naturales o artificiales, que luego podrían propagarse mediante el uso de armas biológicas, ataques terroristas o por accidente,[74]​ lo que podría causar pandemias.

Se observa un crecimiento exponencial en el sector biotecnológico. Noun y Chyba predicen que esto llevará a una gran mejora en estas técnicas en las próximas décadas. [74]​Creen que los riesgos correspondientes de la guerra biológica y el bioterrorismo son mayores que los de las armas nucleares o químicas, porque los agentes infecciosos son más fáciles de producir y su producción en masa es difícil de controlar, y las capacidades tecnológicas correspondientes se vuelven accesibles. incluso a individuos aislados.[74]​Hasta ahora, los usos terroristas de la biotecnología han sido raros, pero no está claro si esto se debe a la falta de recursos o la falta de motivación.[74]

El principal riesgo esperado en el futuro es la aparición de agentes infecciosos genéticamente modificados o totalmente artificiales.[74]​En general, se cree que la virulencia de los agentes infecciosos naturales, que han evolucionado conjuntamente con sus hospedadores, está limitada por la necesidad de que los hospedadores sobrevivan lo suficiente para transmitir el agente,[75]​ pero es posible modificar genéticamente estos agentes, (voluntaria o accidentalmente) para cambiar su virulencia y otras características.[74]​Por ejemplo, un grupo de investigadores australianos modificó involuntariamente las características del virus de la viruela del ratón al tratar de desarrollar un virus que esterilizaría a los roedores. [74]​El virus modificado se ha vuelto extremadamente letal incluso en ratones vacunados o naturalmente resistentes.[76][77][78]​Si no están estrictamente reguladas, las tecnologías que permiten la manipulación genética de las características de los virus pueden estar disponibles en el futuro.[74]

Noun y Chyba proponen tres categorías de medidas para reducir los riesgos de pandemias (naturales o artificiales): regulación o prohibición de investigaciones potencialmente peligrosas, mejora de la vigilancia de la salud y desarrollo de medios para combatir la propagación de epidemias (por ejemplo, mediante la producción de vacunas más eficaces y su distribución más amplia).[74]

Nanotecnología

Muchas nanotecnologías están en desarrollo o ya se utilizan.[79]​ La única que parece representar un riesgo significativo de catástrofe global es el ensamblaje molecular, una técnica que permitiría construir estructuras complejas con precisión atómica.[80]​ El ensamblaje molecular es por el momento un concepto puramente teórico que requiere avances significativos en nanotecnología, pero que podría permitir producir objetos sofisticados en grandes cantidades y a bajo costo en nanofábricas del tamaño de impresoras 3D ( que son una versión gruesa y macroscópica del mismo concepto).[79][80]​ Cuando estas nanofábricas pueden producir otras, la producción puede estar limitada solo por la cantidad de recursos relativamente abundantes, como materias primas, energía y software. Así podrían, entre otras cosas, fabricar a un precio bajo armas sofisticadas, autónomas y duraderas.[79]

Chris Phoenix clasifica los riesgos de desastres creados por la nanotecnología en tres categorías:[81]

  1. Acelerar el desarrollo de otras tecnologías, como la inteligencia artificial o la biotecnología.
  2. Producción en masa de objetos potencialmente peligrosos, creando una dinámica de riesgo, como la carrera de armamentos.
  3. Creación de procesos de reproducción sin freno, con efectos destructivos.

Sin embargo, también señala que es probable que las nanotecnologías reduzcan muchos otros riesgos globales de desastres.[79]

Varios investigadores dicen que la mayoría de estos riesgos provienen del potencial militar y la carrera de armamentos.[76][79][82]​ Se han sugerido varias razones por las cuales estas técnicas podrían conducir a una escalada inestable (a diferencia de, por ejemplo, las armas nucleares):

  1. Un gran número de actores pueden verse tentados a participar en la escalada, siendo el costo correspondiente bajo;[79]
  2. La fabricación de armas por este método es barata y fácil de camuflar;[79]
  3. La dificultad de controlar las intenciones de los otros actores empuja a armarse con prudencia y desencadenar ataques preventivos;[79][83]
  4. El ensamblaje molecular disminuye la dependencia del comercio internacional,[79]​ que es un factor de paz;
  5. Una guerra de agresión se vuelve económicamente más interesante para el agresor, ya que la fabricación de armas es barata y los humanos menos necesarios en el campo de batalla.[79]

La autorregulación de todos los actores, ya sean estatales o no, parece difícil de lograr,[84]​ las medidas para limitar los riesgos de armamento y guerra se propusieron principalmente en el marco del multilateralismo.[79][85]​ Se debe desarrollar una infraestructura internacional, tal vez análoga a la Agencia Internacional de Energía Atómica y dedicada específicamente a las nanotecnologías, que otorgue más poder al nivel supranacional.[85]​ También es posible fomentar el desarrollo tecnológico diferencial, favoreciendo las tecnologías defensivas.[79][86]

Otras catástrofes planetarias debidas a las nanotecnologías son concebibles. Así, en 1986, en su libro Engines of Creation,[87]Eric Drexler consideró la noción de plaga gris, un tema a menudo tratado por los medios y la ciencia ficción.[88][89]​ Este escenario involucra pequeños robots autorreplicantes que destruirían toda la biosfera al utilizarla como fuente de energía y materiales. Sin embargo, ahora los expertos en este campo (incluido Drexler) han desacreditado este escenario; Según Chris Phoenix una plaga gris no podría ser más que el resultado de un proceso delicado y deliberado, y no de un accidente.[90]

Accidentes relacionados con una tecnología experimental

La biotecnología podría conducir al desarrollo de pandemias incurables, las guerras químicas conducen a una contaminación irremediable, las nanotecnologías producen plagas grises catastróficas. De manera más general, Nick Bostrom sugirió que cada nueva tecnología puede revelar el riesgo impensable antes, y que en su búsqueda del conocimiento, la humanidad podría crear aún inadvertidamente alguna capaz de destruir el sistema de la Tierra, e incluso el sistema solar,[91]​ en concreto la investigación en física de partículas puede crear condiciones excepcionales con consecuencias catastróficas.

Ya, a algunos científicos les preocupaba que la primera prueba nuclear pudiera incendiar la atmósfera [92]​ , [93]​ y más recientemente, ha habido especulaciones alarmistas sobre la posible producción de micro agujeros negros,[94]strangelets u otros estados físicos anormales en el Gran colisionador de hadrones, y considerando una reacción en cadena que podría llevar al desastre. Estos temores particulares obviamente no se materializaron, y ya se habían refutado mediante el cálculo,[95][96][97][98]​ pero cada nuevo avance tecnológico puede dar lugar a temores similares.[n 4]

Riesgos no antropogénicos

Los riesgos descritos en esta sección corresponden a riesgos independientes de acciones humanas. La mayoría, con la excepción principalmente de las pandemias, también están escasamente mitigados por posibles medidas preventivas. Su probabilidad anual, comparada con la de los riesgos de origen humano, es, sin embargo, muy a menudo estimada como insignificante.[11]

Pandemia global

La mortalidad pandémica es igual a la virulencia del agente infeccioso multiplicada por el número total de personas infectadas. En general, se supone que existe un límite a la virulencia de los agentes infecciosos que han evolucionado conjuntamente con sus anfitriones,[75]​ porque un agente que mata a su huésped con demasiada rapidez no tendrá tiempo para propagarse.[99]​ Este modelo simple predice que si no existe un vínculo entre la virulencia y el modo de transmisión, los agentes infecciosos evolucionarán hacia formas menos virulentas y de rápida propagación. Sin embargo, esta hipótesis no siempre se verifica, y cuando existe una relación entre la virulencia y la transmisión, por ejemplo, debido a que la descomposición del cadáver libera el agente infeccioso, pueden aparecer niveles altos de virulencia,[100]​ limitados solo por otros factores, como las interacciones entre diferentes hospedadores (pulgas, ratas y humanos en el caso de plaga , por ejemplo).[75][101]​ Además, si la pandemia es un fenómeno secundario relacionado con una zoonosis, la virulencia en los seres humanos puede ser total.[102]​ Muchas pandemias históricas han tenido un efecto devastador en grandes poblaciones, la más conocida es la Peste Negra (entre 1347 y 1352) y la gripe de 1918; esto implica que una pandemia global podría representar una amenaza realista para la civilización.

La vigilancia de la salud actual hace que la probabilidad de una pandemia de este tipo sea bastante baja, al menos para los agentes infecciosos similares a los conocidos (y en particular no modificados por el uso de biotecnologías). Sin embargo, la posibilidad de que aparezca un nuevo agente patógeno (como en el caso de enfermedades emergentes), o de que una mutación haga que un virus como la gripe sea mucho más virulento, nunca se puede descartar. Un debilitamiento de los servicios de salud vinculados, por ejemplo, a una crisis económica también podría hacer que esta catástrofe mundial sea mucho más importante.

Sin estar directamente relacionados con las pandemias, la aparición de superbacterias resistentes a todos los antibióticos plantea nuevas amenazas de crisis para la salud.[103][104]​ Por otro lado, las enfermedades como la obesidad o las alergias, aunque no son contagiosas, se describen metafóricamente como pandemias [105]​ , [106]​ y si se expandieran, podrían terminar ejerciendo presiones disgénicas significativas a escala global.[107]

Cambio climático

El cambio climático es un cambio duradero en los climas globales. En un pasado relativamente reciente (geológicamente), la Tierra ha experimentado climas que van desde los períodos glaciales hasta episodios tan calientes como para crecer palmeras en la Antártida. Se supone además que los episodios de la llamada Glaciación global terrestre, donde todos los océanos estaban cubiertos de hielo, tuvieron lugar en un pasado mucho más remoto. Los cambios climáticos repentinos (en unas pocas décadas) se han producido a escala regional, por ejemplo durante la Pequeña Edad de Hielo o durante el óptimo climático medieval, pero el cambio climático global se ha producido lentamente, al menos desde principios del Cenozoico y el clima se ha vuelto aún más estable desde el final de la última era glacial hace diez mil años. Dado que la civilización (y en particular la agricultura) se ha desarrollado durante un período de climas estables, una variación natural hacia un nuevo régimen climático (más cálido o más frío) podría constituir un riesgo de catástrofe global.[108]

El período actual (el Holoceno) se considera un episodio interglacial en medio de una oscilación bastante regular entre glaciaciones y deglaciaciones, de un período de aproximadamente 50.000 años, que se explica por la teoría astronómica de los paleoclimas. Una nueva glaciación sería sin duda un desastre global en el sentido de Bostrom, pero además el modelo no la predice para los próximos milenios. La intervención del calentamiento global probablemente cambiará la evolución de los climas, incluso puede llevar a la aparición de regímenes muy diferentes de los que la Tierra ha conocido en el pasado.[19]

Vulcanismo

 
Extensión de la capa de ceniza depositada después de la última erupción de la caldera de Yellowstone (hace 640.000 años).

La erupción de un supervolcán [109]​ , [110]​ puede llevar a un invierno volcánico similar a un invierno nuclear, vinculado a una contaminación significativa (azufre, ceniza y dióxido de carbono). Un evento de este tipo, la erupción de Toba,[111]​ ocurrió en Indonesia hace aproximadamente 71.500 años. Según la teoría del desastre de Toba,[112]​ esta erupción podría haber reducido las poblaciones humanas a decenas de miles de personas.

La Caldera de Yellowstone es otro de estos supervolcanes, ya que ha experimentado al menos 142 erupciones formadoras de caldera en los últimos 17 millones de años, incluida una docena de supererupciones.[113]​ En la última de estas erupciones, hace 640.000 años , las cenizas expulsadas cubrieron todos los Estados Unidos al oeste del Mississippi, así como el noroeste de México.[113]

Este tipo de erupción tiene consecuencias importantes en el clima global, que puede llegar a provocar una glaciación si el sol permanece oculto por las cenizas, o por el contrario, un calentamiento global si son los gases de efecto invernadero los que prevalecen. En una escala menor, esto ocurrió en 1816 después de la erupción de Tambora, lo que resultó en un " año sin verano ".

Aunque no están sujetas al mismo mecanismo, las erupciones que dieron origen a las provincias magmáticas probablemente estén acompañadas (durante decenas o incluso cientos de miles de años) de emisiones de gas y polvo en una cantidad comparable a la de los supervolcanes. Siguen siendo mucho más raras (la más reciente, la del grupo basáltico de Columbia, que ocurrió hace unos quince millones de años), y en general se las considera responsables de las extinciones masivas más importantes, la extinción de los Pérmicos. Por ejemplo, la del Triásico se correlaciona con la formación de los traps siberianos. Esto es claramente un riesgo existencial, pero probablemente nos avisaría con milenios de anticipación.

Otros peligros geológicos

El campo magnético de la Tierra se ha invertido muchas veces durante su historia, dejando huellas particulares en las rocas del fondo del océano, permitiendo datar la fecha de estas inversiones. Actualmente son infrecuentes, ocurriendo la última hace 780 000 años. En el momento de la transición, el campo se debilita considerablemente, permitiendo que la radiación ( viento solar, erupciones solares, rayos cósmicos ) alcancen el suelo, poniendo en peligro la civilización al aumentar los cánceres, las mutaciones, etc. Estas teorías siguen siendo, sin embargo, actualmente desacreditadas parcialmente ya que el análisis estadístico no muestra correlación entre estas inversiones y las extinciones en masa.[114][115]

 
Representación artística de un impacto meteorítico de escala planetaria, causando un megatsunami .

Otro riesgo de desastre global es un megatsunami, una ola gigante que podría ser causada, por ejemplo, por el colapso de una isla volcánica. La probabilidad de este tipo de evento ha sido muy exagerada por los medios de comunicación [116]​ y estos escenarios solo corresponden a catástrofes regionales. Sin embargo, un impacto cósmico que ocurra en el océano (como el correspondiente a la extinción de los dinosaurios) podría causar que un megatsunami que arrastre continentes enteros.[cita requerida]

Impacto cósmico

 

Varios asteroides han chocado con la Tierra durante su historia. El asteroide de Chicxulub, por ejemplo, es la causa más probable de la extinción de los dinosaurios no aviares hace 66 millones de años, al final del Cretácico.[117]​ Un objeto de más de un kilómetro de diámetro que golpee la Tierra probablemente destruiría la civilización y, a partir de tres kilómetros, tendría una buena posibilidad de provocar la extinción de la humanidad.[118]​ Se estima que estos impactos ocurren en promedio una vez por cada 500 000 años (los impactos de objetos grandes, que exceden los 10 kilómetros, son aproximadamente 100 veces menos frecuentes).[118]​ El escenario de una colisión combina varias de las catástrofes planetarias vistas anteriormente: invierno de impacto, desencadenamiento de erupciones volcánicas y megatsunami (si el impacto tiene lugar en el océano), pero también terremotos, tormentas de fuego, etc.[119]

Otras amenazas cósmicas

 
Erupción solar , con eyecciones en largos filamentos que exceden la distancia Tierra-Luna.

Aparte de los impactos de asteroides y posiblemente las erupciones solares excepcionales, otras amenazas identificables generalmente corresponden a escenarios a muy largo plazo, o muy poca plausibilidad y no es posible en el futuro previsible protegerse de ellas. Por lo tanto, el Sol pasará inevitablemente a través de una fase de expansión (transformándolo en un gigante rojo que posiblemente abarcará la órbita de la Tierra) en aproximadamente 7 mil millones de años.[120]​ De manera similar, las simulaciones de movimientos planetarios a largo plazo muestran que una colisión entre Mercurio y la Tierra (un riesgo existencial para cualquier forma de vida) tiene una probabilidad no insignificante de ocurrir dentro de unos pocos miles de millones de años.[121]

 
Estallido de rayos gamma (visión del artista).

Muchos eventos de alta energía, como los estallidos de rayos gamma,[122]supernovas e hipernovas, plantearían riesgos existenciales si ocurrieran a unos pocos cientos de años luz de la Tierra (una hipernova podría ser la causa de la extinción del ordovícico-siluriano [123]​). Sin embargo, se estima que la probabilidad de tal ocurrencia es muy baja.[124]

Otros riesgos, como el paso del sistema solar a través de una nebulosa oscura o una nube de polvo cósmico (que podría provocar un cambio climático significativo), o el acercamiento de otra estrella a menos de un año luz del sol, también se estima que tienen una probabilidad insignificante durante los próximos milenios.[125]

Vida extraterrestre

Desde La guerra de los mundos, la vida extraterrestre y sus interacciones con la especie humana son temas recurrentes de la ciencia ficción. Sin embargo, aunque científicos como Carl Sagan creen que su existencia (pero no necesariamente la existencia de inteligencia alienígena) es muy probable, las distancias interestelares son tales que una interacción con la humanidad parece poco probable. El único riesgo que puede considerarse razonablemente es el de la contaminación accidental (por ejemplo, por las bacterias de Marte), e incluso este escenario se considera muy poco realista.[126]

Estimación de la probabilidad de riesgo

Algunos peligros que no dependen de acciones humanas tienen una probabilidad que puede calcularse con precisión. Por lo tanto, la probabilidad de que la humanidad desaparezca durante el próximo siglo debido a un impacto cósmico sería una posibilidad entre un millón [127]​ (aunque algunos científicos dicen que el riesgo podría ser mucho mayor [128]​ , [129]​ ). De manera similar, la frecuencia de erupciones volcánicas de magnitud suficiente para crear una catástrofe climática, similar a la resultante de la explosión de Toba (que podría haber causado la casi extinción de la humanidad [130]​ ) se estima en una por cada 50.000 años.[109]

El peligro relativo que representan otras amenazas es mucho más difícil de estimar. En 2008, en la Conferencia de la Universidad de Oxford sobre Riesgos de Desastres Globales, un grupo de expertos reputados que reunieron su experiencia en diferentes tipos de riesgo sugirieron un 19% de probabilidad de extinción de la especie. en el próximo siglo (sin embargo, el informe de la conferencia advierte que el método utilizado para sintetizar las respuestas dadas no tiene en cuenta correctamente la falta de respuestas a ciertas preguntas [14]​). El informe anual de 2016 de la Global Challenges Foundation señala que incluso las estimaciones más optimistas implican que el estadounidense promedio tiene cinco veces más probabilidades de morir en una catástrofe global que en un accidente automovilístico.[131][132]

La estimación precisa de estos riesgos presenta considerables dificultades metodológicas. La mayor atención se ha prestado a los riesgos durante los próximos cien años, pero los pronósticos de este tiempo son difíciles. Si las amenazas planteadas por la naturaleza son relativamente constantes (aunque pueden descubrirse nuevos riesgos), es probable que las amenazas antropogénicas cambien dramáticamente con el desarrollo de nuevas tecnologías. La capacidad de los expertos para predecir el futuro en tales escalas de tiempo en el pasado ha demostrado ser bastante limitada. Además, además de los aspectos tecnológicos de estas nuevas amenazas, el análisis de su impacto en la sociedad y su capacidad para defenderla está limitado por las dificultades metodológicas de las ciencias sociales y la velocidad con la que las relaciones internacionales pueden cambiar.[131]

Los riesgos existenciales plantean otros problemas de estimación, debido a un importante sesgo de selección, el principio antrópico. A diferencia de la mayoría de los otros desastres, el hecho de que nunca se haya producido una extinción masiva en relación con la humanidad en el pasado no da información sobre la probabilidad de que ocurra tal evento en el futuro, porque, por definición, una extinción no deja ningún observador (humano), y así, aunque el desastre que constituye un riesgo existencial era muy probable, el hecho de que la humanidad sobreviviera solo significaría que tuvo mucha suerte.[133]​ Sin embargo, sigue siendo posible estimar estos riesgos utilizando eventos similares que han dejado su huella, como los cinco episodios de extinción principales que precedieron a la aparición de los humanos; a veces también es posible calcular los efectos de una catástrofe tecnológica en particular, por ejemplo, un invierno nuclear.[5]

Paradoja de Fermi

En 1950, el genial físico italiano Enrico Fermi se preguntó por qué la humanidad todavía no se había encontrado con civilizaciones extraterrestres. Su pregunta era, "¿dónde están todos?[134]​ Dada la edad del universo y su gran número de estrellas, la vida extraterrestre debe ser trivial, a menos que la Tierra sea muy atípica. Es esta la peculiaridad que se conoce como paradoja de Fermi.

Aunque no sea ampliamente aceptada, una explicación de la paradoja es la noción de riesgo existencial; más específicamente, la idea de que las civilizaciones que deberíamos estar observado (o quién nos pudo haber visitado) se destruyen antes de que apareciera la humanidad.[133][135]

Importancia económica y ética de los riesgos existenciales

La reducción de los riesgos existenciales beneficia principalmente a las generaciones futuras. Según la estimación de su número, se puede considerar que una ligera disminución del riesgo tiene un gran valor moral. Derek Parfit dice que nuestros descendientes podrían sobrevivir otros cinco mil millones de años, hasta que la expansión del Sol haga que la Tierra sea inhabitable.[136][137]Nick Bostrom incluso piensa que la colonización del espacio permitiría que un número astronómico de personas sobreviviera durante cientos de miles de millones de años.[6]​ Es la comparación entre la población actual y esta gran cantidad de potenciales descendientes destruidos por la extinción lo que justifica que se haga todo lo posible para reducir los riesgos.

Estas posiciones no han sido muy disputadas, aunque desde un punto de vista económico, se debe tener en cuenta que el valor de un bien actual es más importante que el valor del mismo bien si solo se puede disfrutar en el futuro. El modelo más utilizado, el de descuento exponencial, podría hacer que estos beneficios futuros sean mucho menos significativos. Sin embargo, Jason Gaverick Matheny afirmó que este modelo es irrelevante para determinar el valor de la reducción de riesgos existenciales.[127]

Algunos economistas han tratado de estimar la importancia de los riesgos de catástrofe global (pero no los riesgos existenciales). Martin Weitzman sostiene que la expectativa (en el sentido estadístico) del costo económico del cambio climático es significativa debido a situaciones en las que los modelos afectan una probabilidad baja pero causan daños catastróficos.[138]​ En general, Richard Posner piensa que hacemos muy poco para mitigar los riesgos de catástrofes globales cuando son débiles y difíciles de estimar.[7]

Además de los sesgos cognitivos que se analizan en la siguiente sección, también hay razones económicas por las que se hacen pocos esfuerzos para reducir los riesgos existenciales e incluso algunos riesgos de catástrofes globales no irreparables. Estos riesgos se refieren a un bien global, es decir que incluso si una gran potencia los reduce, beneficiará solo una pequeña parte de la ganancia correspondiente; además, la mayoría de estos beneficios serán recaudados por las generaciones futuras, quienes obviamente no tienen forma de pagar un seguro contra estos riesgos para las generaciones actuales.[5]

Percepción de riesgos

 
Los cuatro jinetes del Apocalipsis en una pintura de Viktor Vasnetsov de 1887 (de izquierda a derecha, Peste, Hambre, Guerra y Conquista).

De acuerdo con Eliezer Yudkowsky, muchos sesgos cognitivos pueden influir en cómo los individuos y los grupos perciben la importancia de los riesgos de desastres globales, incluida la insensibilidad al alcance, la heurística de disponibilidad, el sesgo de representatividad, la heurística de la afectividad, y el efecto de exceso de confianza.[139]​ Por lo tanto, la falta de sensibilidad en la medida hace que las personas a menudo estén más preocupadas por las amenazas individuales que las dirigidas a grupos más grandes [139]​ (por lo que sus donaciones por causas altruistas no son proporcionales a la magnitud del problema [140]​); es por eso que no consideran la extinción de la humanidad como un problema tan serio como debería ser. De manera similar, el sesgo de representatividad los lleva a minimizar los desastres que tienen poco que ver con los que han llegado a conocer, y a asumir que el daño que causarán no será mucho más serio.[139]

A menudo se ha señalado [141]​ que la mayoría de los riesgos antropogénicos mencionados anteriormente corresponden a mitos que a menudo son muy antiguos, los de Prometeo, Pandora y, más recientemente, el del aprendiz de brujo que es el más representativo. El simbolismo de los cuatro jinetes del Apocalipsis, los últimos tres que representan la Guerra, el Hambre y la Peste, ya está en el Antiguo Testamento en la forma de la incómoda elección ofrecida por Dios al rey David.[142]​ Los diversos riesgos de revuelta de las máquinas aparecen en el mito del Golem y, combinados con las biotecnologías, en la historia del monstruo de Frankenstein. Por otro lado, se ha sugerido que las narrativas de desastres de varias tradiciones religiosas (donde están más relacionadas con la ira de las deidades) corresponderían a recuerdos de catástrofes reales (por ejemplo, el Diluvio estaría vinculado a la reconexión) el Mar de Mármara con el Mar Negro ); bajo el nombre de catastrofismo coherente (catastrofismo coherente),[129]​ Victor Clube y Bill Napier desarrollaron la hipótesis de que las lluvias de meteoros catastróficos han dado a luz a muchos mitos cosmológicos, que van desde la historia de la destrucción de Sodoma y Gomorra (tesis también defendida por Marie - Agnes Courty) a las descripciones del Apocalipsis.[143]​ Sin embargo, sus ideas son poco aceptadas por la comunidad científica.[144]

La existencia de estas interpretaciones míticas, así como muchas de las profecías del fin del mundo, facilita un fenómeno de negativa parcial o total a tener en cuenta estos riesgos de desastre, conocido como síndrome de Casandra.[n 5][145]​ Si bien los riesgos antropogénicos se minimizan al atribuirlos a temores irracionales, las catástrofes descritas en los mitos se consideran exageradas por la ignorancia y la deformación de los recuerdos.[n 6][146]

El análisis de los riesgos causados por los humanos sufre de dos sesgos opuestos: los informantes tienden a exagerar el riesgo para hacerse oír,[n 7]​ incluso a denunciar riesgos imaginarios en nombre del principio de precaución.[147]​ Los poderosos intereses económicos, por otro lado, tratan de minimizar los riesgos asociados con sus actividades, como lo demuestra, por ejemplo, el caso del Instituto <i id="mwA2s">Heartland</i>,[148]​ y más generalmente al analizar las estrategias de desinformación expuestas en Les Mercaderes de la duda.[n 8]

Dando una interpretación racional al mito de la edad de oro, Jared Diamond finalmente señala que ciertas catástrofes (los "colapsos" de Nick Bostrom) pueden pasar desapercibidas a las sociedades que las sufren, por falta de una memoria histórica suficiente;[n 9]​ por ejemplo, explica el desastre ecológico sufrido por los habitantes de la Isla de Pascua.[149]

Organizaciones de evaluación de riesgos

El Boletín de los científicos atómicos es una de las organizaciones más antiguas preocupadas por los riesgos globales. Fue fundada en 1945 después de que el bombardeo de Hiroshima hiciera al público consciente de los peligros de las armas atómicas. Estudia los riesgos asociados con las tecnologías nucleares y las armas, y es famoso por su gestión del Reloj del fin del mundo desde 1947.

En 1972, el trabajo del Club de Roma dio lugar a un informe famoso, ¿Detener el crecimiento?, que alerta contra el riesgo de agotamiento de recursos naturales y desastres ecológicos antes de finales del siglo XXI. Publicado a mediados de los treinta años gloriosos, el informe es impugnado enérgicamente en cuanto se publica por su pesimismo,[n 5][150]​ pero sus supuestos se consideran bastante optimistas cuarenta años después de su publicación por el Club: El agotamiento en realidad ocurriría antes de mediados del siglo XXI.[151]

Desde principios de la década de los 2000, un número cada vez mayor de científicos, filósofos y multimillonarios de las nuevas tecnologías han creado organizaciones independientes o académicamente dedicadas al análisis global de riesgo de desastres.[152]

Dichas organizaciones no gubernamentales (ONG) incluyen el Instituto de Investigación de Inteligencia de las Máquinas (establecido en el 2000), cuyo objetivo es reducir el riesgo de desastres relacionados con la inteligencia artificial y la singularidad tecnológica,[153]​ y del cual Peter Thiel es un donante importante.[154]​ Más recientemente, la Fundación Lifeboat (establecida en 2006) financia investigaciones para prevenir un desastre tecnológico,[155]​ y la mayor parte de los fondos se destina a proyectos universitarios.[156]​ El Future of Life Institute se creó en 2014 para buscar los medios de salvaguardar la humanidad frente a nuevos desafíos tecnológicos.[157]Elon Musk es uno de los mayores donantes.[158]

Entre las organizaciones subordinadas a las universidades están el Instituto del futuro de la Humanidad, fundado en 2005 por Nick Bostrom en la Universidad de Oxford para llevar a cabo la investigación sobre el futuro a largo plazo de la humanidad y los riesgos existenciales, el Centro del Estudio de Riesgos Existenciales, fundado en 2012 en la Universidad de Cambridge (y del cual Stephen Hawking era consultor) para estudiar cuatro riesgos antropogénicos: inteligencia artificial, biotecnologías, calentamiento global y los riesgos de la guerra; o en la Universidad de Stanford, el Centro para la Seguridad Internacional y la Cooperación, que estudia las políticas de cooperación para reducir el riesgo global de desastres.[159]

Finalmente, otros grupos de evaluación de riesgos pertenecen a organizaciones gubernamentales. Por ejemplo, la Organización Mundial de la Salud (OMS) tiene un departamento llamado Alerta y Respuesta Global (GAR), que es responsable de la coordinación entre los Estados Miembros en caso de una pandemia.[160][161]​ La Agencia de los Estados Unidos para el Desarrollo Internacional (USAID) tiene un programa similar.[162]​ El Laboratorio Nacional Lawrence Livermore tiene una división, la Dirección Principal de Seguridad Global para estudiar asuntos gubernamentales, tales como la bioseguridad, la acción contra el terrorismo, etc.[163]

Precauciones y prevención.

El concepto de gobernanza global que respeta los límites planetarios se ha propuesto como un enfoque para la reducción del riesgo de desastres. En particular, el campo de la geoingeniería planea manipular el entorno global para combatir los cambios antropogénicos en la composición atmosférica. Se han explorado técnicas integrales de almacenamiento y conservación de alimentos, pero sus costos serían altos y podrían agravar las consecuencias de la desnutrición. David Denkenberger y Joshua Pearce han sugerido el uso de alimentos alternativos para reducir el riesgo de inanición relacionada con catástrofes globales, como un invierno nuclear o un cambio climático repentino,[164]​ como la conversión de la biomasa de la madera en productos comestibles;[165]​ sin embargo, se necesitará mucho progreso en esta área para garantizar que estos métodos permitan que una parte significativa de la población sobreviva.[166]

Otras sugerencias de reducción de riesgos, como las estrategias de desviación de asteroides para contrarrestar el riesgo de impacto, o el desarme nuclear, son económica o políticamente difíciles de implementar. Finalmente, la colonización del espacio es otra propuesta hecha para aumentar las posibilidades de supervivencia ante un riesgo existencial,[167]​ pero las soluciones de este tipo, actualmente inaccesibles, sin duda requerirán, entre otras cosas, el uso a gran escala de la ingeniería.

Entre las precauciones realmente tomadas individual o colectivamente, se pueden mencionar:

Análisis y críticas

La importancia de los riesgos detallados en las secciones anteriores rara vez se niega, aunque los riesgos para los humanos a menudo se minimizan;[n 8]​ sin embargo, los análisis de Nick Bostrom han sido criticados desde varias perspectivas distintas.

Críticas técnicas

Muchos de los riesgos mencionados por Nick Bostrom en sus libros se consideran exagerados (o imaginarios), o corresponden a escalas de tiempo tan amplias que parece un tanto absurdo considerarlos con amenazas casi inmediatas.[171][n 10]​ Además, los cálculos de probabilidad, esperanza o utilidad son difíciles o están mal definidos para este tipo de situación, como lo demuestran, por ejemplo, las paradojas como el argumento del apocalipsis, como lo reconoce el propio Nick Bostrom.[172][171]​ En particular, ha desarrollado un argumento ético que indica que el número exorbitante de nuestros descendientes condenado por una catástrofe existencial justifica el uso de todos los medios imaginables para disminuir, si acaso, la probabilidad de este accidente;[6]​ sin embargo, los cálculos en los que se basa se han disputado y este argumento bien puede ser una falacia.[127]

Nick Bostrom y Max Tegmark publicaron en 2005 un análisis del riesgo de inestabilidad de todo el universo.[173]​ Independientemente de la validez de sus cálculos (que tienden a mostrar que el riesgo es muy bajo), uno puede preguntarse si realmente tiene significado hablar de una catástrofe de la que nadie sería advertido de antemano, y que no dejaría ningún observador. En una discusión similar sobre el riesgo de una reacción en cadena que envolviera toda la atmósfera, un amigo respondió a las inquietudes de Richard Hamming con: No te preocupes Hamming, no quedará nadie para maldecirte.[92]

Posiciones filosóficas

Los análisis de Nick Bostrom se basan en el transhumanismo, una ideología que defiende el uso de la ciencia y la tecnología para mejorar las características físicas y mentales de los seres humanos; por lo tanto, considera que todo lo que podría impedir a la humanidad desarrollar plenamente su potencial es un riesgo existencial.[3]

Esta posición ha sido severamente criticada, en parte porque conduce a la negación de los valores a los que se une la humanidad actual, en nombre de los valores futuros hipotéticos.[8]​ Steve Fuller señala en particular que si un desastre global no destruye a toda la humanidad, los sobrevivientes pueden estimar legítimamente en algunos casos que su situación ha mejorado.[174]

En la ficción

 
Representación de Gilgamesh

Literatura

Los escenarios de desastre global aparecen en los mitos más antiguos conocidos. un diluvio que ahoga a todos los seres vivos en la Epopeya de Gilgamesh, destrucción por hielo, agua o fuego en el mito nórdico de Ragnarok, la lista de las diez plagas de Egipto , etc.[175]​ Pero ninguna de estas historias, ni las propuestas por la ciencia ficción hasta alrededor de 1950, se preocupan por las probabilidades científicas o sociológicas. Las descripciones de las distopías (correspondientes a los "aullidos" de Nick Bostrom ), con la notable excepción de 1984, también prestan poca atención a la coherencia y viabilidad de los sistemas que proponen.

 
Bombas de Hiroshima y Nagasaki

Después de Hiroshima, se está desarrollando una abundante literatura post-apocalíptica, que incluye trabajos no clasificados en el campo de la ciencia ficción, como Malevil, pero la mayoría de estas novelas se centran en la cuestión de la supervivencia y no en las causas del desastre (casi siempre nuclear).[n 4]​ En 1985, Jacques Goimard explicará la popularidad de estas historias por el "deseo de derrumbarse".[176]

A principios de la década de 1970, surgieron descripciones de desastres ambientales descritos con realismo. Por ejemplo John Brunner publicó All in Zanzibar (1968) y The Blind Herd (1972), denunciando respectivamente los peligros de la superpoblación y la contaminación, y afirmando ser científicamente irreprochables; se basa en una documentación muy actualizada, que refleja los análisis de los movimientos ecologistas iniciales, y es sorprendentemente precisa en sus predicciones.[177]

Las novelas que describen desastres debidos a las nuevas tecnologías (inteligencia artificial, biotecnologías, nanotecnologías, etc.) no aparecen antes de 1990 y siguen siendo marginales. Muchos de los autores están más preocupados, como en las novelas sobre cultura de Iain Banks, sobre cómo los humanos podrían adaptarse a estas tecnologías, en universos inspirados en ideas transhumanistas.

Cine

Los desastres han sido un tema de elección desde los inicios de la historia del cine (con, por ejemplo, en 1927 Metropolis, considerada como la primera película distópica), pero la dificultad de la realización de efectos especiales convincentes hace que los directores estén más apegados a la descripción de un mundo devastado, como en la serie de <i id="mwBBg">Mad Max</i>.

Desde la década de 1990, los enormes avances en efectos especiales digitales le dan a las películas un nuevo aliento: El Día de la Independencia relata una invasión extraterrestre, el Volcano el estallido de un volcán en la ciudad, o el Armagedón que describe la destrucción de un asteroide que amenaza con el impacto. También podemos citar las películas de la serie Terminator y las de la serie Matrix (que ilustra la "revuelta de las máquinas"). En 2004, The Day After Roland Emmerich describe un repentino cambio climático. Sin embargo, todas estas películas han sido criticadas por su falta de realismo o probabilidad.[178][n 11]

Más recientemente, otros tipos de desastres globales, especialmente pandemias, han sido objeto de películas menos exigentes y, de hecho, más realistas, siendo la película más famosa de este tipo Contagio.

Notas

  1. En négligeant les évènements de très faible probabilité, comme les impacts cosmiques par des objets de plus de 3 km de diamètre, au demeurant minimisés par les théories de l'époque concernant les grandes extinctions, attribuées à des causes graduelles.
  2. D’autres auteurs, comme Jared Diamond ou Paul R. Ehrlich, utilisent plutôt le terme
    effondrement
    (collapse).
  3. El riesgo de extinción completa está obviamente disminuido por el tamaño mismo de la humanidad (más de 7.500 millones de personas) y la existencia de grupos que desarrollan estrategias de supervivencia para la mayoría de los desastres posibles.
  4. Des catastrophes
    réalistes
    provenant de l’apparition d’une nouvelle technologie ont été parfois envisagées par des auteurs de science-fiction dès les années 1950 ; un célèbre exemple étant l’invention de la glace-neuf dans le roman de Kurt Vonnegut, Le Berceau du chat.
  5. Bajo el título Cassandra's Curse , un análisis de Ugo Bardi (del cual aquí se encuentra la versión original en inglés ) se publicó en 2011, estudiando la demonización del informe del Club de Roma titulado Stop Growth? .
  6. En L'Éveil , Oliver Sacks señala que incluso las pandemias relativamente recientes se minimizan (la gripe de 1918 ) o se olvidan por completo ( encefalitis letárgica ).
  7. Por lo tanto, en The P Bomb , Paul R. Ehrlich anunció en 1968 la hambruna masiva (debido a la sobrepoblación) que se espera que ocurra antes de 1980.
  8. En Merchants of Doubt , Naomi Oreskes y Erik M. Conway muestran que las mismas estrategias de desinformación utilizadas para negar los efectos nocivos del fumar se han utilizado para minimizar los efectos del calentamiento global , la lluvia ácida y la destrucción de pañales. ozono
  9. Al carecer de tradiciones escritas, por ejemplo, desconocen que, en el pasado, sus condiciones de vida eran mejores y repiten las acciones dañinas de sus predecesores porque desconocen sus consecuencias.
  10. Por lo tanto, parece poco probable que un día la humanidad pueda prevenir la expansión del Sol , y solo la colonización de sistemas extra-solares puede protegerlo. Sin embargo, este tipo de colonización (en el estado actual de nuestro conocimiento) se basa en capacidades tecnológicas y sociales muy alejadas de nuestras posibilidades actuales (por lo general, para mantener en las naves espaciales grandes civilizaciones estables de futuros colonos, durante varias decenas de años). miles de años); un serio análisis de costo-beneficio en este caso parece a muchos críticos totalmente ilusorio.
  11. Por ejemplo, explotar un asteroide como en Armageddon probablemente no protegerá a la Tierra del impacto; El cambio climático descrito en The Next Day , además de ser poco probable que cause una nueva edad de hielo en el corto plazo, no puede de ninguna manera congelar a las personas que han quedado fuera.


Referencias

  1. Céline Grislain-Letrémy (2013). Les risques majeurs et l'action publique. La Documentation française. .
  2. Scarwell, Helga-Jane; Laganier, Richard (2004). Risque d'inondation et aménagement durable du territoire (en francés). Presses universitaires du Septentrion. p. 51 |página= y |páginas= redundantes (ayuda). ISBN 2-85939-870-8. .
  3. Bostrom, 2002.
  4. Bostrom, 2008, p. 1 (lire en ligne).
  5. Nick Bostrom (2013). «Existential Risk Prevention as Global Priority». Global Policy (en inglés): 15–31. doi:10.1111/1758-5899.12002. Consultado el 07 juillet 2014. .
  6. Bostrom, Nick (2003). «Astronomical Waste: The opportunity cost of delayed technological development». Utilitas (en inglés) 15 (3): 308–314. doi:10.1017/s0953820800004076. .
  7. Posner, 2004, Introduction, « Qu'est-ce qu’une catastrophe ? ».
  8. Fukuyama, Francis (2004). «Transhumanism». Foreign Policy (en inglés). Consultado el 28 mai 2012. .
  9. Niall Firth (18 Juin 2010). «Human race 'will be extinct within 100 years', claims leading scientist» (en inglés). Consultado el 8 mars 2016. 
  10. Niall Firth (18 Juin 2010). «Human race 'will be extinct within 100 years', claims leading scientist» (en inglés). Consultado el 8 mars 2016. 
  11. «Frequently Asked Questions» (en inglés). Future of Humanity Institute. Consultado el 26 juillet 2013. . .
  12. «The Cambridge Project for Existential Risk» (en inglés). Cambridge University. .
  13. «'Terminator center' to open at Cambridge University». Fox News (en inglés). 26 novembre 2012. .
  14. (en inglés) Global Catastrophic Risks Survey, Technical Report, 2008, Future of Humanity Institute.
  15. Julien Cattiaux, Fabrice Chauvin, Hervé Douville et Aurélien Ribes (novembre 2016). «Des bulletins météo extrêmes à prévoir». La Recherche (517). .
  16. «2015: IT IS 3 MINUTES TO MIDNIGHT». Bulletin of the Atomic Scientists (en inglés). 2015. .
  17. "Es medianoche, menos dos minutos y medio antes del fin del mundo", Le Figaro .fr con AFP , 27 de enero de 2017.
  18. (en inglés) « The Doomsday Clock just moved: It’s now 2 minutes to ‘midnight,’ the symbolic hour of the apocalypse », Lindsey Bever, Sarah Kaplan et Abby Ohlheiser, The Washington Post.com, 25 janvier 2018.
  19. Isaac M. Held (novembre 2000). «Water Vapor Feedback and Global Warming». Annu. Rev. Energy Environ 2000 (en inglés): 449 et suivantes. .
  20. Hansen, James (2013). «Climate sensitivity, sea level and atmospheric carbon dioxide». Royal Society Publishing (en inglés) 371 (2001): 20120294. doi:10.1098/rsta.2012.0294. .
  21. Kendall Powell (2002). «Tropical 'runaway greenhouse' provides insight to Venus» (en inglés). NASA Ames Research Center. .
  22. Fricke, H. C. (2009). «Polar methane production, hothouse climates, and climate change». American Geophysical Union (en inglés). Fall Meeting. Bibcode:2009AGUFMPP44A..02F. .
  23. Chiarelli, B. (1998). «Overpopulation and the Threat of Ecological Disaster: the Need for Global Bioethics». Mankind Quarterly (en inglés) 39 (2): 225–230. .
  24. Evans-Pritchard, Ambrose (6 février 2011). «Einstein was right - honey bee collapse threatens global food security». The Daily Telegraph (en inglés) (Londres). .
  25. Valo, Martine (2014). «Il faut interdire l'usage des pesticides néonicotinoïdes en Europe». Le Monde (en francés) (Groupe Le Monde). .
  26. Meadows, 1974, p.129 et suiv. de l’édition anglaise.
  27. (en inglés)Nations unies, Département des Affaires économiques et sociales (2013). . WPP2012KF. Archivado desde el original el 16 de octubre de 2013. Consultado el 22 de marzo de 2019. .
  28. . census.gov (en inglés). US Census Bureau. Archivado desde el original el 9 de julio de 2012. Consultado el 9 septembre 2013. .
  29. «The end of India's green revolution?». BBC News (en inglés). 29 mai 2006. Consultado el 31 janvier 2012. .
  30. Food First. «Green Revolution» (en inglés). Foodfirst.org. Consultado el 31 août 2016. .
  31. Matthieu Auzanneau (9 juillet 2012). «Nier l'imminence du pic pétrolier est une erreur tragique». Lemonde.org. Consultado el 10 août 2016. .
  32. The Oil Drum: Europe. «Agriculture Meets Peak Oil» (en inglés). Europe.theoildrum.com. Consultado el 31 janvier 2012. .
  33. (en inglés). EnergyBulletin.net. 02 octobre 2003. Archivado desde el original el 12 de febrero de 2012. Consultado el 31 janvier 2012. .
  34. Dale Allen Pfeiffer (2007). «Drawing Momentum from the Crash». uncommonthought.com (en inglés). .
  35. Marc Bettinelli (2 août 2017). «Le « jour du dépassement de la Terre » en infographies». lemonde.fr. Consultado el 8 novembre 2017. .
  36. «Past Earth Overshoot Days». overshootday.com (en inglés). .
  37. «Cereal Disease Laboratory : Ug99 an emerging virulent stem rust race» (en inglés). Ars.usda.gov. Consultado el 31 janvier 2012. .
  38. «Durable Rust Resistance in Wheat» (en inglés). Wheatrust.cornell.edu. Consultado el 31 janvier 2012. .
  39. Ainsi, une expérience intensive sur les risques d’hybridation avec le colza«Hybridation entre le colza et la ravenelle en conditions proches de la pratique agricole». inra.fr. 25 août 2000. Consultado el 20 octobre 2016.  a donné des résultats entièrement négatifs.
  40. Christiane Galus (15 août 2002). «Le “nuage brun” d’Asie pourrait menacer le climat de la planète». Le Monde. .
  41. «Un air irrespirable : la pollution atmosphérique tue et coûte de l’argent». banquemondiale.org. 8 septembre 2016. .
  42. La llamada de alarma de quince mil científicos sobre el estado del planeta , Le Monde , 13 de noviembre de 2017.
  43. «Environnement : l'avertissement de 15 000 scientifiques face à la dégradation de la planète - France 24». France 24 (en fr-FR). 14 de noviembre de 2017. Consultado el 17 de abril de 2018. 
  44. «Alerte de 15 000 scientifiques : leurs 9 indicateurs de dégradation de la planète analysés». France Culture (en fr-FR). 14 de noviembre de 2017. Consultado el 17 de abril de 2018. 
  45. Martin Hellman (1985). «On the Probability of Nuclear War». stanford.edu (en inglés). .
  46. Avner Cohen. [[[:Plantilla:Google Livres]] Nuclear Weapons and the Future of Humanity: The Fundamental Questions] (en inglés). p. 237. .
  47. Federation of American Scientists (28 avril 2015). «Status of World Nuclear Forces». Federation of American Scientists (en inglés). Consultado el 4 juin 2015. .
  48. (en inglés) « The Doomsday Clock just moved: It’s now 2 minutes to ‘midnight,’ the symbolic hour of the apocalypse », Lindsey Bever, Sarah Kaplan et Abby Ohlheiser, The Washington Post.com, 25 janvier 2018.
  49. Frank Dikötter (2010). La Grande Famine de Mao, 1958–62. Walker & Company. p. 13. ISBN 0-8027-7768-6. .
  50. Brian Martin (1982). «Critique of nuclear extinction». Journal of Peace Research (en inglés) 19 (4): 287–300. doi:10.1177/002234338201900401. Consultado el 25 octobre 2014. .
  51. L’hiver nucléaire, article de Richard Turco, Owen Toon, Thomas Ackerman, James Pollack et Carl Sagan, in La paix surarmée, Belin, 1987, traduction en français de l'article Nuclear Winter: Global Consequences of Multiples Nuclear Explosions in Science, Plantilla:Abrd 222, Plantilla:N°, p. 1283-1292, 23 décembre 1983.
  52. Shulman, Carl (5 novembre 2012). «Nuclear winter and human extinction: Q&A with Luke Oman». Overcoming Bias (en inglés). Consultado el 25 octobre 2014. .
  53. C. Bardeen (2007). «Atmospheric effects and societal consequences of regional scale nuclear conflicts and acts of individual nuclear terrorism». Atmospheric Chemistry and Physics (en inglés). Consultado el 5 novembre 2016. .
  54. Bostrom, 2002, section 4.2.
  55. Herman Kahn (1960). On Thermonuclear War (en inglés). Princeton, NJ, USA: Princeton University Press,. .
  56. Christian Enemark (2006). «Biological attacks and the non-state actor: A threat assessment». Intelligence and National Security (en inglés). .
  57. «VIDEO - La tempête solaire qui a failli renvoyer la Terre au 18e siècle». bfmtv.com. BFM TV. 25 juillet 2014. Consultado el 21 octobre 2016. .
  58. «La « guerre de l’eau »». lemonde.fr. 12 mars 2012. Consultado el 21 octobre 2016. .
  59. «Guerre de l'eau : le Pakistan menace l'Inde». lefigaro.fr. 27 septembre 2016. Consultado el 21 octobre 2016. .
  60. Bruno Chaudret (octobre 2013). «Métaux et terres rares : l’autre problème de la transition énergétique». Progressistes. Consultado el 21 octobre 2016. .
  61. Tainter, 1990.
  62. Il a formé un groupe multidisciplinaire pour étudier la culture anasazi dans Evolving Complexity and Environmental Risk in the Prehistoric Southwest (Santa Fe Institute Proceedings Plantilla:Numéro24), coédité avec Bonnie Bagley Tainter, 1998.
  63. John Markoff (26 juillet 2009). «Scientists Worry Machines May Outsmart Man». The New York Times (en inglés). . Error en la cita: Etiqueta <ref> no válida; el nombre «nytimes july09» está definido varias veces con contenidos diferentes
  64. Vernor Vinge (1993). «The Coming Technological Singularity: How to Survive in the Post-Human Era». rohan.sdsu.edu (en inglés). 
  65. Bill Joy (2000). «Why the future doesn't need us». Wired (en inglés). .
  66. Nick Bostrom (2002). «Ethical Issues in Advanced Artificial Intelligence». nickbostrom.com (en inglés). .
  67. Bostrom, Nick (2014). Superintelligence : Paths, Dangers, Strategies (en inglés). Oxford University Press. ISBN 978-0199678112. 
  68. Rawlinson, Kevin. «Microsoft's Bill Gates insists AI is a threat» (en inglés). BBC News. Consultado el 30 janvier 2015. .
  69. Mariëtte Le Roux (12 mars 2016). «Rise of the Machines: Keep an eye on AI, experts warn». Phys.org (en inglés). Consultado el 13 mars 2016. .
  70. P. W. Singer (21 mai 2009). «Gaming the Robot Revolution: A military technology expert weighs in on Terminator: Salvation». slate.com (en inglés). Consultado el 21 octobre 2016. .
  71. Laurent Orseau (1 juin 2016). «Safely Interruptible Agents». intelligence.org (en inglés). Consultado el 21 octobre 2016. 
  72. Yudkowsky, Eliezer. «Artificial Intelligence as a Positive and Negative Factor in Global Risk». yudkowsky.net (en inglés). Consultado el 26 juillet 2013. .
  73. Tim Adams (12 juin 2016). «Artificial intelligence: ‘We’re like children playing with a bomb’». The Observer (en inglés). Consultado el 24 octobre 2016. .
  74. Bostrom, 2008, chapitre 20 : Biotechnologie et biosécurité. Error en la cita: Etiqueta <ref> no válida; el nombre «GCRs bio-chapter» está definido varias veces con contenidos diferentes Error en la cita: Etiqueta <ref> no válida; el nombre «GCRs bio-chapter» está definido varias veces con contenidos diferentes Error en la cita: Etiqueta <ref> no válida; el nombre «GCRs bio-chapter» está definido varias veces con contenidos diferentes
  75. Steven Frank (1996). . Q Rev Biol (en inglés) 71 (1): 37–78. doi:10.1086/419267. Archivado desde el original el 18 de mayo de 2015. Consultado el 22 de marzo de 2019.  Error en la cita: Etiqueta <ref> no válida; el nombre «Frank SA 1996 37–78» está definido varias veces con contenidos diferentes
  76. Sandberg, Anders. «The five biggest threats to human existence». theconversation.com (en inglés). Consultado el 13 juillet 2014. .
  77. Jackson, Ronald J.; Ramsay, Alistair J.; Christensen, Carina D.; Beaton, Sandra (2001). «Expression of Mouse Interleukin-4 by a Recombinant Ectromelia Virus Suppresses Cytolytic Lymphocyte Responses and Overcomes Genetic Resistance to Mousepox». Journal of Virology (en inglés) 75 (3): 1205–1210. doi:10.1128/jvi.75.3.1205-1210.2001. Consultado el 13 juillet 2014. .
  78. (en inglés) Le virus tueur augmente la crainte du bioterrorisma, article du New Scientist, 10 janvier 2001.
  79. Bostrom, 2008, chapitre 21 : Nanotechnology as global catastrophic risk.
  80. . foresight.org (en inglés). Archivado desde el original el 26 de abril de 2014. Consultado el 19 juillet 2014. .
  81. Chris Phoenix et Mike Treder (novembre 2003). «Three Systems of Action: A Proposed Application for Effective Administration of Molecular Nanotechnology». crnano.org (en inglés). Consultado el 19 juillet 2014. .
  82. Drexler, Eric. «A Dialog on Dangers». foresight.org (en inglés). Consultado el 19 juillet 2014. .
  83. Drexler, Eric. «Engines of Destruction (Chapter 11)». e-drexler.com (en inglés). Consultado el 19 juillet 2014. .
  84. «Dangers of Molecular Manufacturing». crnano.org (en inglés). Consultado el 19 juillet 2014. .
  85. «The Need for International Control». crnano.org (en inglés). Consultado el 19 juillet 2014. .
  86. «Technical Restrictions May Make Nanotechnology Safer». crnano.org (en inglés). Consultado el 19 juillet 2014. .
  87. Joseph, Lawrence E. (2007). Apocalypse 2012 (en inglés). New York: Broadway. p. 6. ISBN 978-0-7679-2448-1. .
  88. Rincon, Paul (09 juin 2004). «Nanotech guru turns back on 'goo'». BBC News (en inglés). Consultado el 30 mars 2012. .
  89. Hapgood, Fred (1986). «Nanotechnology: Molecular Machines that Mimic Life». Omni (en inglés). Consultado el 19 juillet 2014. .
  90. «Leading nanotech experts put 'grey goo' in perspective». crnano.org (en inglés). Consultado el 19 juillet 2014. .
  91. Bostrom, 2002, section 4.8.
  92. Richard Hamming. «Mathematics on a Distant Planet» (en inglés). .
  93. «Report LA-602, ''Ignition of the Atmosphere With Nuclear Bombs''» (PDF) (en inglés). Consultado el 19 octobre 2011. .
  94. Robert Matthews (28 août 1999). «A Black Hole Ate My Planet». New Scientist (en inglés). Consultado el 23 octobre 2016. .
  95. Konopinski, Emil; Marvin, C.; Teller, Edward (1946). «Ignition of the Atmosphere with Nuclear Bombs» (PDF). Los Alamos National Laboratory (en inglés) (LA–602). Consultado el 23 novembre 2008. .
  96. (en inglés) Une déclaration officielle concernant la sécurité du LHC el 24 de octubre de 2009 en Wayback Machine..
  97. «Safety at the LHC» (en inglés). .
  98. (en inglés) J. Blaizot et al. (2003). . doc.cern.ch (en inglés). CERN. Archivado desde el original el 7 de septiembre de 2008. Consultado el 22 de marzo de 2019. .
  99. «Crossing the Line: Selection and Evolution of Virulence Traits». PLoS Pathogens (en inglés) 2 (5): e42. 2006. doi:10.1371/journal.ppat.0020042. .
  100. «Challenging the trade-off model for the evolution of virulence: is virulence management feasible?». Trends Microbiol. (en inglés) 11 (1): 15–20. 2003. doi:10.1016/S0966-842X(02)00003-3. .
  101. «Virulence evolution in emerging infectious diseases». Evolution (en inglés) 59 (7): 1406–12. 2005. doi:10.1554/05-111. .
  102. Gandon S (2004). «Evolution of multihost parasites». Evolution (en inglés) 58 (3): 455–69. doi:10.1111/j.0014-3820.2004.tb01669.x. .
  103. «Une super-bactérie cauchemardesque résiste à tous les antibiotiques». L'Express. 27 mai 2016. Consultado el 24 octobre 2016. .
  104. Anne Debroise (septembre 2016). «Menace mondiale sur la santé publique». La Recherche. .
  105. «Obésité et surpoids». who.int. Organisation mondiale de la santé. 2016. Consultado el 24 octobre 2016. .
  106. Platts-Mills TA (2005). «Is the hygiene hypothesis still a viable explanation for the increased prevalence of asthma?». Allergy. 60 Suppl 79: 25–31. (en inglés). PMID 15842230. doi:10.1111/j.1398-9995.2005.00854.x. .
  107. P. Bernanose (26 mai 2013). «Notre intelligence est-elle en train de s’émousser ?». santelog.com. Consultado el 24 octobre 2016. .
  108. Bostrom, 2008, ch.13, p. 276.
  109. Rampino, M.R.; Ambrose, S.H. (2000). «Super eruptions as a threat to civilizations on Earth-like planets». Icarus (en inglés) 156: 562–569. Bibcode:2002Icar..156..562R. doi:10.1006/icar.2001.6808. .
  110. Kate Ravilious (2005). «What a way to go». The Guardian (en inglés). .
  111. Université d'Oxford (2009). . toba.arch.ox.ac.uk (en inglés). Archivado desde el original el 3 de octubre de 2016. Consultado el 22 de marzo de 2019. .
  112. Stanley H. Ambrose (1998). . Journal of Human Evolution (en inglés) 34 (6): 623–651. doi:10.1006/jhev.1998.0219. Archivado desde el original el 28 de septiembre de 2010. Consultado el 22 de marzo de 2019. .
  113. Breining, Greg (2007). Super Volcano: The Ticking Time Bomb Beneath Yellowstone National Park (en inglés). St. Paul, MN.: Voyageur Press. p. 256. ISBN 978-0-7603-2925-2. .
  114. Plotnick, Roy E. (1 janvier 1980). «Relationship between biological extinctions and geomagnetic reversals». Geology (en inglés) 8 (12): 578. Bibcode:1980Geo.....8..578P. doi:10.1130/0091-7613(1980)8<578:RBBEAG>2.0.CO;2. .
  115. Glassmeier, Karl-Heinz (29 mai 2010). «Magnetic Polarity Transitions and Biospheric Effects». Space Science Reviews (en inglés) 155 (1-4): 387–410. Bibcode:2010SSRv..155..387G. doi:10.1007/s11214-010-9659-6. .
  116. Pararas-Carayannis, George (2002). «Evaluation of the threat of mega tsunami generation from postulated massive slope failures of island volcanoes on La Palma, Canary Islands, and on the island of Hawaii» (en inglés). drgeorgepc.com. Consultado el 20 décembre 2008. .
  117. «La chute d’une météorite a bien été fatale aux dinosaures». Le Monde.fr. 8 février 2013. Consultado el 22 octobre 2016. .
  118. Bostrom, 2002, section 4.10.
  119. (en inglés) Une analyse des effets d’impacts cosmiques el 22 de diciembre de 2016 en Wayback Machine., et un simulateur basé sur cette analyse, développé à l’université d’Arizona.
  120. Laurent Sacco, ¿ El apocalipsis en 7.6 billones de años? . futura-sciences.com, 28 de febrero de 2008 ..
  121. (en inglés) Ken Croswell, Will Mercury Hit Earth Someday? el 7 de octubre de 2008 en Wayback Machine., Skyandtelescope.com 24 avril 2008.
  122. (en inglés) Explosions in Space May Have Initiated Ancient Extinction on Earth, NASA.
  123. Anne Minard (3 avril 2009). «Gamma-Ray Burst Caused Mass Extinction?». http://news.nationalgeographic.com (en inglés). National Geographic News. .
  124. Adrian Melott (2011). «Astrophysical Ionizing Radiation and the Earth: A Brief Review and Census of Intermittent Intense Sources». Astrobiology (en inglés) 11: 343–361. Bibcode:2011AsBio..11..343M. doi:10.1089/ast.2010.0603. .
  125. Fraser Cain (04 août 2003). «Local Galactic Dust is on the Rise». Universe Today (en inglés). .
  126. Bostrom, 2002, section 7.2.
  127. Matheny, Jason Gaverick (2007). «Reducing the Risk of Human Extinction». Risk Analysis (en inglés) 27 (5): 1335–1344. doi:10.1111/j.1539-6924.2007.00960.x. .
  128. Asher, D.J.; Bailey, M.E.; Emel'yanenko, V.; Napier, W.M. (2005). «Earth in the cosmic shooting gallery» (PDF). The Observatory (en inglés) 125: 319–322. Bibcode:2005Obs...125..319A. .
  129. (en inglés) David J. Asher, Victor Clube, Bill Napier et Duncan Steel (1994). Coherent Catastrophism. Vistas in Astronomy, 38 (1), 1-27 (Harvard.edu résumé en ligne).
  130. Ambrose, 1998; Rampino y Ambrose, 2000, p. 71, 80.
  131. Robinson Meyer (29 avril 2016). «Human Extinction Isn't That Unlikely» (en inglés). The Atlantic. Consultado el 30 avril 2016. .
  132. (en inglés). globalchallenges.org. Archivado desde el original el 8 de mayo de 2016. Consultado el 30 avril 2016. .
  133. Milan Ćirković, Anders Sandberg y Nick Bostrom (2010). «Anthropic Shadow: Observation Selection Effects and Human Extinction Risks». Risk Analysis (en inglés) 30: 1495–1506. doi:10.1111/j.1539-6924.2010.01460.x. .
  134. Jones, E. M. (1 mars 1985). «'Where is everybody?' An account of Fermi's question» (en inglés). Los Alamos National Laboratory (LANL), United States Department of Energy. Consultado el 12 janvier 2013. 
  135. Ventrudo, Brian (5 juin 2009). «So Where Is ET, Anyway?». Universe Today (en inglés). Consultado el 10 mars 2014.  :
    Some believe [the Fermi Paradox] means advanced extraterrestrial societies are rare or nonexistent. Others suggest they must destroy themselves before they move on to the stars
  136. Parfit, Derek (1984). Reasons and Persons (en inglés). Oxford University Press. pp. 453–454. .
  137. Harrington, Damian (21 février 2000). «Date set for desert Earth». BBC News Online (en inglés). .
  138. Weitzman, Martin (2009). «On modeling and interpreting the economics of catastrophic climate change». The Review of Economics and Statistics (en inglés) 91 (1): 1–19. doi:10.1162/rest.91.1.1. .
  139. Eliezer Yudkowsky (2008). «Cognitive Biases potentially affecting judgments of global risks». intelligence.org (en inglés). MIRI. Consultado el 23 octobre 2016. .
  140. J.A. Hausman (1993). «Measuring natural resource damages with contingent valuation: tests of validity and reliability». Contingent Valuation:A Critical Assessment (en inglés). Amsterdam: North Holland. p. 91−159. .
  141. Voir par exemple cette recension de Phillip V. Stanley (en inglés) dans le cadre d’un cours sur les mythes grecs de catastrophe, et plus généralement Jeanvrin, 2009.
  142. Sept ans de famine, trois mois de guerre ou trois jours de peste
    , Samuel 24-13.
  143. Victor Clube y Bill Napier , Cosmic Winter , El jardín de los libros, 2006.
  144. (en inglés) Un contre-argument important développé par un des experts de la NASA.
  145. (en inglés) AtKisson, A., Believing Cassandra: An Optimist Looks at a Pessimist's World, [[{{{2}}}]] ([[:Earthscan:{{{2}}}|Earthscan]]) (1999).
  146. D’autres motivations pour ce refus sont exposées dans "Confronting the New Misanthropy" (en inglés), un article de Frank Furedi dans Spiked en 2006.
  147. Voir cette analyse des spéculations alarmistes autour du LHC, et en particulier cet article (en inglés) de Nature.
  148. Normand Baillargeon (21 février 2012). «Vous reprendrez bien un peu de propagande». http://voir.ca. Voir. .
  149. Diamond, 2006, ch.2, section La forêt évanouie. .
  150. Marie-Béatrice Baudet (2015). «Aurelio Peccei, premier résistant à la croissance». Le Monde. 
  151. Mark Strauss (2012). «Looking Back on the Limits of Growth». Simthsonian Magazine (en inglés). 
  152. Sophie McBain (25 septembre 2014). «Apocalypse soon: the scientists preparing for the end of times» (en inglés). New Statesman. Consultado el 5 juin 2015. .
  153. «Reducing Long-Term Catastrophic Risks from Artificial Intelligence» (en inglés). Machine Intelligence Research Institute. Consultado el 5 juin 2015. .
  154. Angela Chen (11 septembre 2014). «Is Artificial Intelligence a Threat?» (en inglés). The Chronicle of Higher Education. Consultado el 5 juin 2015. .
  155. «About the Lifeboat Foundation» (en inglés). The Lifeboat Foundation. Consultado el 26 avril 2013. .
  156. Ashlee Vance (20 juillet 2010). «The Lifeboat Foundation: Battling Asteroids, Nanobots and A.I.» (en inglés). New York Times. Consultado el 5 juin 2015. .
  157. «The Future of Life Institute» (en inglés). Consultado el 5 mai 2014. .
  158. Nick Bilton (28 mai 2015). «Ava of ‘Ex Machina’ Is Just Sci-Fi (for Now)» (en inglés). New York Times. Consultado el 5 juin 2015. .
  159. «Center for International Security and Cooperation» (en inglés). Center for International Security and Cooperation. Consultado el 5 juin 2015. .
  160. «Global Alert and Response (GAR)» (en inglés). World Health Organization. Consultado el 5 juin 2015. .
  161. Kelley Lee (2013). Historical Dictionary of the World Health Organization (en inglés). Rowman & Littlefield. p. 92. Consultado el 5 juin 2015. .
  162. (en inglés). USAID. Archivado desde el original el 22 octobre 2014. Consultado el 5 juin 2015. .
  163. «Global Security» (en inglés). Lawrence Livermore National Laboratory. Consultado el 5 juin 2015. .
  164. (en inglés) David Denkenberger et Joshua Pearce, [[{{{2}}}]] ([[:Feeding Everyone No Matter What:{{{2}}}|Feeding Everyone No Matter What]]), Elsevier, San Francisco, 2014.
  165. (en inglés) Denkenberger, D. C., & Pearce, J. M. (2015). Feeding Everyone: Solving the Food Crisis in Event of Global Catastrophes that Kill Crops or Obscure the Sun. Futures. 72:57–68. open access .
  166. (en inglés) Baum, S.D., Denkenberger, D.C., A Pearce, J.M., Robock, A., Winkler, R. Resilience to global food supply catastrophes. Environment, Systems and Decisions 35(2), p. 301-313 (2015). open access.
  167. Mankind must abandon earth or face extinction: Hawking (en inglés). physorg.com. 9 août 2010. Consultado el 23 janvier 2012. .
  168. Lewis Smith (27 février 2008). «Doomsday vault for world’s seeds is opened under Arctic mountain». The Times Online (en inglés) (Londres). .
  169. «En Norvège, la réserve mondiale de graines rattrapée par le réchauffement». Libération. 26 mai 2017. .
  170. «Changement climatique : le permafrost entourant la Banque mondiale de graines a fondu». Courrier international. 22 mai 2017. .
  171. Nick Bostrom (2003). «Are You Living In a Computer Simulation?». Philosophical Quarterly 53: 243-255. .
  172. Nick Bostrom (2001). «The Doomsday Argument, Adam & Eve, UN++, and Quantum Joe». Synthese (en inglés) 127 (3): 359–387. doi:10.1023/A:1010350925053. .
  173. M. Tegmark (2005). «Is a doomsday catastrophe likely?». Nature (en inglés) 438 (5875): 754. Bibcode:2005Natur.438..754T. doi:10.1038/438754a. .
  174. (en inglés) Steve Fuller, Why Superintelligence May Not Help Us Think about Existential Risks—or Transhumanism, Social Epistemology Review and Reply Collective 3, no. 10 (2014): 47-49.
  175. Jeanvrin, 2009.
  176. Jacques Goimard , prefacio a Histoires de catastrophes , en la Gran Antología de la Ciencia Ficción . .
  177. Lista de predicciones de Todo en Zanzibar. [1] , en Gentside .
  178. Las películas con las mayores aberraciones científicas , en el sitio senscritique.com.

Bibliografía

  • Meadows, Donella (1974). Halte à la croissance ?. ISBN 0-87663-165-0.  (Le texte intégral est en ligne sur le site du Donella Meadows Institute.)
    • Meadows, Donella; Randers, Jorgen; Meadows, Dennis (2012). Les Limites à la croissance (dans un monde fini). Rue de l’échiquier. ISBN 978-2917770351.  : mise à jour après 30 ans.
  • Tainter, Joseph (2014). L’Effondrement des sociétés complexes (en francés). Le Retour aux sources. ISBN 978-2355120510. .
  • Leslie, John A. (1996). The End of the World (en inglés). Routledge. ISBN 0-415-14043-9. .
  • Powell, Corey S. (2000). «Twenty ways the world could end suddenly». Discover (en inglés). .
  • Bostrom, Nick (2002). «Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards». Journal of Evolution and Technology (en inglés) 9 (1). Bostrom 2002. .
  • Rees, Martin (2003). Our Final Hour (en inglés). Basic Books. ISBN 0-465-06862-6. .
  • Wilson, Edward Osborne (2003). The Future of Life (en inglés). Vintage. ISBN 0-679-76811-4. .
  • Richard, Jean-François (2003). High Noon (en inglés). Basic Books. ISBN 0-465-07010-8. .
  • Posner, Richard (2004). Catastrophe: Risk and Response (en inglés). Oxford: Oxford University Press. ISBN 978-0195306477. 
  • Joel Garreau (2005). Radical Evolution (en inglés). Doubleday. ISBN 978-0-385-50965-7. 
  • Diamond, Jared (2006). Effondrement. Comment les sociétés décident de leur disparition ou de leur survie. Gallimard, NRF Essais. ISBN 2-07-077672-7. .
  • Derrick Jensen (2006). Endgame (en inglés). Seven Stories Press. ISBN 1-58322-730-X. .
  • Bostrom, Nick (2008). Global Catastrophic Risks (en inglés). Oxford University Press. Bostrom 2008.  (lire l’introduction en ligne).
  • Le numéro 22 de la revue Le Portique (lire en ligne) est entièrement consacré à divers aspects de la notion de catastrophe ; les relations avec les mythes et la science-fiction y sont analysées dans :
    • Jeanvrin, Sébastien (2009). «Catastrophe, sacré et figures du mal dans la science-fiction : une fonction cathartique». Le Portique (22). .
  • Huesemann, Michael H. (2011). «Sustainability or Collapse». Techno-fix (en inglés). Douglas & McIntyre. p. 464. ISBN 0-86571-704-4. .
  • Lafargue, Jean-Noël (2012). Les Fins du monde. François Bourin éditeur. p. 312. ISBN 978-2849413456. .
  • Paul R. Ehrlich; Ehrlich, Anne H. (mars 2013). «Can a collapse of global civilization be avoided ?». Proc. R. Soc. B (en inglés) 280 (1754). .
  • Hicham-Stéphane Afeissa (2014). La fin du monde et de l'humanité (en francés). Paris: Presses universitaires de France. p. 400. ISBN 978-2-13-062151-5. .
  • Paul Jorion (mars 2016). Le dernier qui s'en va éteint la lumière. Paris: Fayard. ISBN 978-2-213-69903-5. .
  • Cotton-Barratt, Owen (2016). (en inglés). Global Challenges Foundation. Cotton-Barratt 2016. Archivado desde el original el 8 de mayo de 2016. Consultado el 30 avril 2016.  (Rapport 2016 de la Global Challenges Foundation).

Enlaces externos

  • Existential-Risk.org, un sitio web sobre los riesgos existenciales mantenido por Nick Bostrom (en inglés)
  • Cognitive biases potentially affecting judgment of global risks, «Sesgos cognitivos que pueden afectar el juicio de los riesgos generales», un artículo de Eliezer Yudkowsky (en inglés)
  • Last Days On Earth, documental de TV de ABC News (30 de agosto de 2006, en inglés)
  • 10 ways the world could end, «10 formas en que el mundo podría acabar», una conferencia de Stephen Petranek (en inglés)
  • It is two minutes to midnight, «Son dos minutos antes de la medianoche», manifiesto sobre la situación global por Bulletin of the Atomic Scientists, enero de 2018 ((en inglés)
  •   Datos: Q1531622

riesgo, catástrofe, planetaria, noción, riesgo, desastre, global, catástrofe, global, introducida, 2008, filósofo, nick, bostrom, para, designar, evento, futuro, hipotético, tenga, potencial, degradar, bienestar, mayoría, humanidad, ejemplo, destruyendo, civil. La nocion de riesgo de desastre global o catastrofe global es introducida en 2008 por el filosofo Nick Bostrom para designar un evento futuro hipotetico que tenga el potencial de degradar el bienestar de la mayoria de la humanidad por ejemplo destruyendo civilizacion moderna Tambien habia propuesto ya en 2002 llamar riesgo existencial un evento que podria causar la extincion de la humanidad Impresion artistica de un impacto cosmico Tal impacto podria haber sido la causa de la extincion de los dinosaurios Indice 1 Ambito 2 Clasificaciones 2 1 Riesgos mayores 2 2 Riesgo de catastrofe global y riesgo existencial 2 3 Clasificacion segun los escenarios 3 Fuentes potenciales de riesgo 3 1 Riesgos por acciones humanas 3 1 1 Calentamiento global 3 1 2 Superpoblacion y crisis agrarias 3 1 3 Desastres ambientales 3 1 4 Guerras y destruccion masiva 3 1 5 Riesgos sistemicos 3 1 6 Inteligencia artificial 3 1 7 Biotecnologia 3 1 8 Nanotecnologia 3 1 9 Accidentes relacionados con una tecnologia experimental 3 2 Riesgos no antropogenicos 3 2 1 Pandemia global 3 2 2 Cambio climatico 3 2 3 Vulcanismo 3 2 4 Otros peligros geologicos 3 2 5 Impacto cosmico 3 2 6 Otras amenazas cosmicas 3 2 7 Vida extraterrestre 4 Estimacion de la probabilidad de riesgo 4 1 Paradoja de Fermi 5 Importancia economica y etica de los riesgos existenciales 6 Percepcion de riesgos 7 Organizaciones de evaluacion de riesgos 8 Precauciones y prevencion 9 Analisis y criticas 9 1 Criticas tecnicas 9 2 Posiciones filosoficas 10 En la ficcion 10 1 Literatura 10 2 Cine 11 Notas 12 Referencias 13 Bibliografia 14 Enlaces externosAmbito EditarEntre las posibles catastrofes globales se incluyen no solo el cambio climatico las pandemias y guerras nucleares sino tambien los riesgos relacionados con la nanotecnologia o una absorcion por parte de una inteligencia artificial hostil y los eventos originados en el espacio tales como los impactos de meteoritos Un estudio cuantitativo riguroso de estos riesgos es dificil debido a la incertidumbre acerca de las consecuencias finales del peligro que desencadena la catastrofe y la probabilidad de este peligro y tambien debido a muchos sesgos cognitivos que complican el analisis Ademas un evento que pueda haber causado la extincion de la humanidad o la destruccion completa de la civilizacion obviamente nunca ha ocurrido desde que existe la especie y la probabilidad de que ocurra se minimiza Este fenomeno se conoce en las estadisticas bajo el nombre de sesgo de seleccion Aunque los riesgos de una catastrofe global han sido el tema de muchos escenarios de ciencia ficcion a menudo modernizando mitos muy antiguos como el de Pandora y de declaraciones alarmistas en los anos cincuenta es solo al principio del siglo XXI que varias organizaciones comenzaron a estudiarlas sistematicamente especialmente bajo el impulso de los movimientos transhumanistas Clasificaciones EditarRiesgos mayores Editar Un riesgo mayor es un evento incierto cuya realizacion a menudo no es muy probable pero cuyos efectos negativos son considerables Los geografos y muchos especialistas despues de ellos dividen esta nocion en tres terminos el peligro que es el evento incierto en si mismo los riesgos que son los valores socioeconomicos o ecologicos sujetos a los efectos del peligro cuando ocurre y la vulnerabilidad que establece el grado en mayor o menor grado de la destruccion de los logros por estos efectos 1 Por ejemplo en el caso del riesgo de inundacion de un rio el peligro es la inundacion del curso de agua los riesgos son las personas y los bienes expuestos a la inundacion y finalmente la vulnerabilidad se mide en particular teniendo en cuenta la altura resistencia y estanqueidad de los edificios en cuestion 2 Riesgo de catastrofe global y riesgo existencial Editar El filosofo Nick Bostrom introdujo en 2002 la nocion de riesgo existencial 3 y en 2008 la nocion de riesgo de desastre global 4 en relacion con una clasificacion de riesgo segun su extension e intensidad 5 el rango desde la escala individual a todas las generaciones futuras y la intensidad de imperceptible hasta maximo los ejemplos se dan en la tabla a continuacion En esta escala se define un riesgo de catastrofe global como al menos global que afecta a la mayoria de los seres humanos y de mayor intensidad que afecta el bienestar de las personas durante un periodo prolongado Un riesgo existencial se define como transgeneracional y maximo irreversible y fatal a corto plazo Por lo tanto un riesgo existencial destruye a la humanidad o incluso a todas las formas de vida superior o al menos no deja ninguna posibilidad de la reaparicion de una civilizacion mientras que una catastrofe global incluso si matara a la mayoria de los humanos dejaria una oportunidad para sobrevivir y reconstruir a los otros Bostrom considera por lo tanto que los riesgos existenciales son mucho mas significativos 6 tambien senala que la humanidad no podria haber considerado un riesgo existencial antes de 1950 n 1 y que todas las estrategias disenadas para reducir los riesgos de catastrofe global son ineficaces frente a las amenazas de extincion completas 3 Independientemente de este trabajo en Catastrophe Risk and Response Richard Posner en 2004 agrupo eventos que trajeron un completo trastorno o ruina a escala global en lugar de local o regional considerandolos como dignos de atencion especial en terminos de analisis de costo beneficio porque podrian directa o indirectamente poner en peligro la supervivencia de la humanidad en su conjunto 7 Entre los eventos discutidos por Posner se encuentran los impactos cosmicos el calentamiento global las plagas grises el bioterrorismo y los accidentes en los aceleradores de particulas Casi por definicion los desastres planetarios no solo son riesgos importantes sino que representan una vulnerabilidad maxima y problemas tan vastos que son imposibles de cuantificar Esto resulta en una confusion frecuente entre riesgo y peligro en este caso Rango e intensidad de riesgo riesgo imperceptible soportable mayor maximopersonal Perdida de un cabello Perdida de un dedo Amputacion de una pierna muertelocal Trafico lento Cortar carreteras destruccion de infraestructuras Terremoto de 1755en Lisboatotal Calentamiento global Ano sin verano Destruccion completade la capa de ozono Invierno nucleartransgeneracional Perdida de una especie de escarabajo Desaparicion de los felinos Extincion del holoceno Fin de la humanidad Francis Fukuyama en 2015 Clasificacion segun los escenarios Editar Bostrom identifica cuatro tipos de escenarios de desastres globales Las explosiones son desastres brutales accidentales o deliberadas los ejemplos mas probables son la guerra nuclear el uso agresivo y fuera de control de la biotecnologia o nanotecnologia y los impactos cosmicos Los colapsos n 2 son escenarios de degradacion progresiva de las estructuras sociales en las que la humanidad sobrevive pero la civilizacion se destruye irremediablemente por ejemplo por el agotamiento de los recursos naturales o por la disminucion de las presiones disgenica bajando la inteligencia media Los alaridos son escenarios de futuros distopicos como los regimenes totalitarios que utilizan inteligencias artificiales para controlar la especie humana Los gemidos son disminuciones graduales en los valores y despues en la civilizacion 3 Nick Bostrom considera que los ultimos tres tipos de escenarios impiden mas o menos definitivamente que la humanidad se de cuenta de su potencial Francis Fukuyama cree que este argumento que se basa en los valores del transhumanismo no es suficiente en si mismo para clasificar a todos como riesgos de catastrofe global 8 Extension de los traps siberianos mapa en aleman Fuentes potenciales de riesgo EditarEntre los riesgos existenciales es decir los riesgos de extincion masiva de la biosfera incluida la especie humana se encuentran principalmente las causas exogenas naturales como la caida de un gran asteroide extincion Cretacico Terciaria una erupcion volcanica a gran escala y de larga duracion traps de Siberia o Deccan episodios de anoxia oceanica global extinciones del Devonico o paleozoicas tardias Una glaciacion general que afecta a todo el planeta escenario de la bola de nieve terrestre criogenia la explosion de una supernova a corta distancia del sistema solar Una explosion de rayos gamma dirigida hacia nuestra region de la galaxia La extincion masiva del Permico Triasico senalada como Final P en el grafico Tales fenomenos han ocurrido en muchas ocasiones en el pasado pero su probabilidad de ocurrencia en la escala historica es a menudo imposible de evaluar por falta de datos cientificos suficientes las observaciones precisas comenzaron hace tres siglos Por otro lado los riesgos de una catastrofe global con mayor frecuencia corresponden a causas endogenas debido a acciones humanas rapacidad violencia ignorancia fanatismo imprevision sobreexplotacion excesiva de todos los recursos disponibles aniquilacion nuclear un efecto disgenico globalizado superpoblacion catastrofica del planeta una pandemia de origen artificial ya sea accidental o criminal 9 el reemplazo de la humanidad por inteligencia artificial capaz de aprender elegir y autorreplicarse por lo tanto por robots o plaga gris Con el desarrollo de las tecnologias la destruccion si no de la raza humana n 3 al menos de la civilizacion moderna por las acciones de una nacion una corporacion una comunidad religiosa o de otro tipo o incluso una accion individual es mas probable que antes desde un punto de vista estadistico Sin embargo es posible que el desarrollo de tecnicas de seguridad reduzca estos riesgos pero sacrificando los derechos humanos y las libertades democraticas Algunos escenarios combinan causas naturales y artificiales una gran tormenta magnetica del Sol o una reversion del campo magnetico de la Tierra podria bloquear el funcionamiento de los dispositivos electronicos y las redes que se han vuelto totalmente dependientes de la economia global dando lugar a una quiebra financiera global y conflictos a gran escala 10 Una vista de la banquisa alaskena Tal vez asi era toda la superficie de la Tierra durante la edad de hielo conocida como Tierra Bola de Nieve De acuerdo con el Future of Humanity Institute las causas antropogenicas amenazan mas con causar la extincion de la humanidad que las causas naturales 5 11 De manera similar el Cambridge Project for Existencial Risk desarrollado en 2012 por el Centro para el Estudio de Riesgos Existenciales de la Universidad de Cambridge 12 afirma que las mayores amenazas para la especie humana son antropogenicas Segun el se trata del calentamiento global las guerras nucleares las biotecnologias que han escapado al control y las inteligencias artificiales hostiles 13 Las listas mas detalladas de riesgos que se incluyen a continuacion algunos de los cuales se correlacionan entre si por ejemplo una crisis sistemica que debilita los servicios de salud aumentara el riesgo de una pandemia se clasifican segun una probabilidad estimada decreciente 14 Esta clasificacion que abarca el trabajo de los diversos grupos de estudio que se mencionan a continuacion no encaja bien con las clasificaciones mas tradicionales de los geografos que se basan en particular en la tipologia de los problemas ambientales economicos etc Riesgos por acciones humanas Editar Calentamiento global Editar El calentamiento global actual que ya no es cuestionado por la comunidad cientifica y la mayoria del cual se atribuye a actividades industriales desde el siglo XIX conduce a variaciones climaticas anormales en toda la Tierra y a efectos secundarios como el aumento del nivel del mar y su acidificacion Incluso las proyecciones mas moderadas de este calentamiento sugieren que aumentara aumentando en particular la frecuencia y la intensidad de los fenomenos meteorologicos extremos olas de calor inundaciones tormentas etc y los desastres asociados 15 Los efectos indirectos incluyen la perdida de biodiversidad el dano al sistema de produccion agricola actual el aumento de la propagacion de enfermedades infecciosas como la malaria y la rapida mutacion de microorganismos En 2015 el reloj del fin del mundo avanzo dos minutos para reflejar el hecho de que el Boletin de los cientificos atomicos cree que ahora es un riesgo de desastre global y posiblemente existencial 16 el 26 de enero de 2017 nuevamente se adelanto por treinta segundos considerando los comentarios y los primeros actos de Donald Trump sobre este tema 17 luego avanzo otros treinta segundos el 25 de enero de 2018 debido a la incapacidad de los dirigentes mundiales para hacer frente a las amenazas inminentes de una guerra nuclear y del cambio climatico 18 Incluso se ha sugerido que exceder un cierto umbral podria hacer que el clima de la Tierra cambie a un estado estable de combustion similar al de Venus esta es la tesis del embalamiento climatico Escenarios menos extremos sin hacer la Tierra inhabitable podrian causar el fin de la civilizacion 19 Sin embargo la existencia de climas mucho mas calidos en el pasado relativamente reciente por ejemplo al comienzo del Eoceno lleva a muchos expertos a cuestionar que este riesgo sea real 20 21 22 Superpoblacion y crisis agrarias Editar Un desastre ecologico como las cosechas catastroficas seguidas por un colapso en los servicios de los ecosistemas podria resultar de las tendencias actuales de la superpoblacion el crecimiento economico desenfrenado 23 y la falta de agricultura sostenible La mayoria de los escenarios de desastre involucran uno o mas de los siguientes factores la extincion del Holoceno la escasez de agua potable lo que podria llevar a que aproximadamente la mitad de la humanidad tenga solo agua con riesgos para la salud y la disminucion de los polinizadores 24 25 pero tambien la pesca excesiva la deforestacion masiva la desertificacion el cambio climatico o finalmente los episodios de contaminacion del agua muchas de estas preocupaciones ya fueron evidentes en el Informe Meadows de 1972 26 3 escenarios de evolucion de la poblacion mundial entre 1800 y 2100 27 28 Incluso sin una catastrofe repentina las explosiones definidas por Nick Bostrom los desequilibrios entre la poblacion y los recursos alimenticios pueden conducir progresivamente a una gran crisis la catastrofe maltusiana son colapsos en la misma clasificacion El siglo XX experimento un rapido aumento de la poblacion mundial 28 debido a los avances en medicina y una gran mejora en la productividad agricola particularmente a partir de la Revolucion Verde 29 30 Asi entre 1950 y 1984 los cambios globales en la agricultura llevaron a un aumento del 250 en la produccion de cereales La Revolucion Verde permitio que la produccion de alimentos siguiera el ritmo del crecimiento de la poblacion e incluso la promoviera La energia requerida para el trabajo agricola fue proporcionada por los combustibles fosiles ya sea para tractores e irrigacion con motores que consumen hidrocarburos o para la fabricacion de fertilizantes y pesticidas Pero la llegada del pico del petroleo podria provocar una crisis agricola 31 32 En un estudio titulado Food Land Population and the U S Economy David Pimentel profesor de la Universidad de Cornell y Mario Giampietro investigador del National Research Institute en Food and Nutrition creen que la poblacion maxima de EE UU para una economia sostenible no puede exceder los 200 millones El mismo estudio establece que para evitar desastres la poblacion mundial deberia reducirse en dos tercios 33 piensan que las consecuencias de esta crisis agricola deberian aparecer a partir de 2020 y ser criticas despues de 2050 Dale Allen Pfeiffer teme que en las proximas decadas se produzca un aumento en los precios de los alimentos seguido de hambrunas masivas como las que el mundo nunca ha visto 32 34 Estos calculos se superponen con los de la ONG estadounidense Global Footprint Network que determina el dia del rebasamiento la fecha en la que se consume por completo la produccion mundial anual de recursos renovables y encuentra que desde 1971 el ano en que ocurrio por primera vez llega cada ano antes En 2018 ocurrio el 1 de agosto 35 36 Desastres ambientales Editar Las particulas de contaminacion del aire de la Nube Marron Asiatica la misma superficie que los Estados Unidos pueden viajar por todo el planeta Ademas de las crisis mencionadas anteriormente diversos riesgos ecologicos amenazan la produccion agricola Asi el trigo el tercer cereal producido despues del maiz y el arroz sigue siendo susceptible a las infecciones por hongos Ug99 una variedad de oxido negro puede causar la falla completa de los cultivos de la mayoria de las variedades modernas 37 La infeccion se propaga por el viento y no se conoce ningun tratamiento Si contamina las principales regiones de produccion Estados Unidos Europa Rusia y el norte de China la crisis resultante provocara un alza de los precios pero tambien la escasez de otros productos alimenticios 38 Al igual que con otros escenarios de desastre los desplazamientos masivos de poblacion o incluso las guerras deben ser temidos Por otro lado a pesar de los debates sobre la introduccion de plantas modificadas geneticamente los riesgos de que esta introduccion cause un desastre ecologico global por ejemplo la aparicion de insectos resistentes a todos los pesticidas o malezas invasivas parecen insignificantes 39 La acumulacion de residuos plasticos en el Pacifico Norte La mayoria de las otras catastrofes ambientales previsibles derrames de petroleo contaminacion industrial e incluso accidentes nucleares permanecen localizadas Sin embargo la nube marron de Asia podria tener consecuencias climaticas en todo el mundo 40 Del mismo modo la contaminacion del oceano parece ser global Finalmente las muertes por contaminacion del aire alcanzan un nivel alarmante y causan un deficit economico anual de cientos de miles de millones de dolares segun el Banco Mundial 41 No esta claro sin embargo que esto sea un desastre global en el sentido de Nick Bostrom ya que muchas regiones tienen los medios para combatir esta contaminacion a nivel local Todas las amenazas descritas en las secciones anteriores consideradas como una crisis global han sido objeto de varios intentos de advertencia El 13 de noviembre de 2017 la revista BioScience y el periodico Le Monde publican un manifiesto firmado por 15 364 cientificos de 184 paises senalando que desde el llamamiento World Scientists Warning to Humanity lanzado en 1992 por la Union de Cientificos Preocupados y mas de 1 700 cientificos independientes incluida la mayoria de los ganadores de los premios Nobel de la ciencia de entonces No solo la humanidad ha fallado en hacer progresos suficientes para abordar estos desafios medioambientales anunciados pero es muy preocupante ver que la mayoria de ellos han empeorado considerablemente Y concluyen Para evitar la miseria generalizada y una perdida catastrofica de la biodiversidad la humanidad debe adoptar una alternativa mas sostenible ambientalmente que la practica que hoy es propia 42 43 44 Guerras y destruccion masiva Editar Castillo Bravo con una potencia de 15 Mt explotando sobre Bikini en 1954 El escenario que mas se ha estudiado es el de una guerra nuclear Aunque la probabilidad anual de tal guerra es baja Martin Hellman senalo en 1985 que si esta probabilidad permanece constante o no disminuye lo suficientemente rapido la guerra es inevitable a largo plazo e inevitablemente llegara el dia en que se agotara la suerte de la civilizacion 45 Durante la crisis de los misiles en Cuba Kennedy estimo las posibilidades de una guerra nuclear entre una sobre tres y una sobre dos 46 En 2015 los Estados Unidos y Rusia tienen un arsenal combinado de 14 700 armas nucleares 47 y teniendo en cuenta otras potencias nucleares existen 15 700 armas nucleares en el mundo 47 un poder destructivo total de aproximadamente 5 000 megatones Mt 250 000 veces mas que la bomba de Hiroshima que es solo una fraccion del arsenal de la Guerra Fria Sin embargo estas cifras explican las estimaciones pesimistas simbolizados por el Reloj del Apocalipsis que fue avanzado en 2018 para reflejar la preocupacion por la incapacidad de los dirigentes mundiales para hacer frente a las amenazas inminentes de una guerra nuclear 17 48 Efecto asumido de la Bomba del Zar la bomba H mas grande jamas probada con una potencia de 57 Mt en la region de Paris el circulo rojo radio 35 km corresponde a la zona de destruccion completa El publico en general a menudo identifico la guerra nuclear con el fin del mundo pero hasta principios de la decada de 1980 los lideres y los expertos consideraron que habia un pequeno riesgo de extincion completa de la humanidad como resultado de tal guerra en una famosa declaracion de 1957 Mao Zedong explico que no tenia miedo de una guerra nuclear a la cual muchos chinos sobrevivirian 49 en 1982 Brian Martin estimo que un intercambio de bombas entre los Estados Unidos y la URSS podria matar directamente de 400 a 450 millones de personas y tal vez unos cientos de millones mas de personas debido a las consecuencias especialmente en el hemisferio norte apenas un poco mas del 10 de la humanidad 50 Sin embargo a partir de 1983 los escenarios mas pesimistas teniendo en cuenta la nocion de invierno nuclear 51 52 llevaron al miedo al menos a una destruccion completa de la civilizacion en este caso debido en particular a la imposibilidad de la agricultura por varios anos 53 54 52 Las armas del Apocalipsis son una forma definitiva del concepto de disuasion nuclear Estas son armas suicidas que garantizan que un agresor hipotetico perezca con el atacante y con el resto de la humanidad Son tecnicamente factibles por ejemplo en forma de gigantescas bombas H de solucion salina de cobalto pero el concepto se abandono a principios de la decada de 1960 esencialmente porque por su propia naturaleza eran una espada de Damocles para su propietario 55 y ya no forman parte de los riesgos existenciales seriamente considerados Otros tipos de armas y conflictos pueden llevar a riesgos de desastres globales en particular el uso de armas de destruccion masiva quimicas y biologicas pero tambien ciertas formas de bioterrorismo porque es probable que desencadenen pandemias incontrolables 56 Conatos de panico bancario en Inglaterra colas de clientes frente a las oficinas del Northern Rock para sacar los ahorros Riesgos sistemicos Editar Fulguracion solar Aunque las crisis financieras como la Gran Depresion a menudo tuvieron un caracter global en el pasado hasta ahora no podemos hablar del riesgo de desastre global en sentido estricto Pero la aceleracion de las comunicaciones y el uso masivo de Internet ahora hacen posible dos tipos de colapso por un lado una desestabilizacion de los mecanismos financieros provocada por ejemplo por una amplificacion de las fluctuaciones del mercado de valores que escapan a cualquier control riesgo asociado a las transacciones de alta frecuencia durante el desplome repentino de 2010 o por una crisis de confianza similar a la crisis de las hipotecas subprime por otra parte una perdida fisica de informacion o de valores relacionada con una ruptura de Internet El primer riesgo es dificil de medir y en particular mal asegurable Sin embargo Internet ha sido disenado para resistir la mayoria de los posibles ataques o fallas de funcionamiento y es que a principios del siglo XXI se observo que una llamarada solar lo suficientemente potente como la de 1859 como para interrumpir suficientemente comunicaciones y la electronica para reenviar la civilizacion al siglo XVIII 57 De manera mas general la globalizacion y la interconexion de los diversos sistemas hacen que a partir de ahora una crisis local o sobre un solo recurso pueda por efecto domino provocar una catastrofe global se trata de colapsos crisis en el sentido de Nick Bostrom La mas conocida de estas crisis es la llegada del pico del petroleo y en particular sus consecuencias para la agricultura 31 32 pero se anticipa durante varias decadas y serian solo efectos indirectos inesperados lo que podria convertirlo en un colapso global Otros escenarios de crisis sistemicas de este tipo han sido menos estudiados y podrian tener consecuencias dificiles de reparar Podemos mencionar la crisis del agua que podria llevar a una guerra entre China India y Pakistan tres potencias nucleares para el control de los recursos hidricos del Himalaya 58 59 o la escasez de tierras raras a priori de poca importancia pero que puede provocar tensiones en la produccion de productos tan diversos como bombillas de bajo consumo automoviles electricos o turbinas eolicas con importantes consecuencias para la transicion energetica 60 Hacia 1990 Joseph Tainter desarrollo analisis mas generales de estos escenarios en su trabajo mas conocido El colapso de las sociedades complejas 61 donde estudia el colapso de la civilizacion maya la civilizacion Anasazi 62 y el Imperio Romano en terminos de la teoria de redes economia de la energia y teoria de la complejidad Aunque estas crisis son el resultado de una serie de desastres locales no inevitables y en las que podemos esperar encontrar caidas mas o menos rapidas Victor Clube y Bill Napier senalaron que los escenarios de desastres sistemicos brutales los golpes provocados por los accidentes locales tambien son posibles y dejan solo un pequeno margen de maniobra antes de convertirse en planetarios Inteligencia artificial Editar Un algoritmo evolutivo utiliza operadores de seleccion iterativa en azul y variacion en amarillo i inicializacion f X evaluacion criterio de parada Se seleccion Cr cruce Mu mutacion Re reemplazo X optimo En 1993 Vernor Vinge popularizo bajo el nombre de singularidad tecnologica la idea de que si el hombre logra construir una inteligencia artificial IA superior a el esta podra construir otra aun mas alta Esta retroalimentacion positiva nos llevaria rapidamente a una superinteligencia inconcebible para nosotros 63 Vinge senala que esto podria ser peligroso para los humanos 64 Esta idea da nacimiento a un movimiento social el singularitarismo Mas especificamente se ha sugerido que las computadoras capaces de aprender podrian convertirse rapidamente en superinteligentes y emprender acciones no planificadas por su programacion incluso hostiles o que los robots puedan competir con la humanidad 65 Tambien es posible que la primera superinteligencia aparente elimine a todas las demas pudiendo tambien manipular cualquier inteligencia inferior para lograr sus objetivos 66 Nick Bostrom llama a esta pregunta el problema del control 67 Stephen Hawking Bill Gates y Elon Musk han expresado temores de que se hayan desarrollado inteligencias artificiales hasta el punto de estar fuera de control Hawking agrego que esto podria significar el fin de la humanidad 68 Los expertos participaron en una conferencia en 2009 organizada por la Asociacion para el Avance de la Inteligencia Artificial para discutir la posibilidad de que las computadoras y los robots obtengan algun tipo de autonomia y la amenaza que esta eventualidad podria presentar Ademas del hecho de que algunos robots han adquirido varias formas de semi autonomia que van desde buscar tomas para recargarse hasta la eleccion de objetivos para atacar senalan que algunos virus informaticos pueden luchar activamente contra su eliminacion y alcanzar el nivel de inteligencia de las cucarachas Estos expertos agregan que si una apariencia de conciencia como la que a menudo representa la ciencia ficcion es poco probable no se excluyen otros problemas o peligros 63 Mas recientemente varios grupos cientificos han observado una aceleracion de los avances en inteligencia artificial incluida la victoria de AlphaGo contra Lee Sedol en marzo de 2016 que se ha convertido en uno de los signos mas visibles que podrian generar nuevas preocupaciones 69 70 71 Eliezer Yudkowsky piensa que los riesgos creados por la inteligencia artificial son mas impredecibles que todos los otros tipos de riesgos y agrega que la investigacion sobre este tema esta sesgada por el antropomorfismo En las personas que basan su analisis de la inteligencia artificial en su propia inteligencia esto les lleva a subestimar las posibilidades de la IA Ademas separa los riesgos en problemas tecnicos algoritmos imperfectos o defectuosos que impiden que la IA logre sus objetivos y fallos filosoficos que son mucho mas perniciosos y dificiles de controlar donde los objetivos de la IA son realmente perjudiciales para la humanidad 72 Nick Bostrom se unio a esta posicion publicando en 2014 Superinteligencia Caminos Peligros Estrategias 73 Biotecnologia Editar Senal de advertencia de peligro biologico La biotecnologia puede crear un riesgo de catastrofe global al desarrollar agentes infecciosos naturales o artificiales que luego podrian propagarse mediante el uso de armas biologicas ataques terroristas o por accidente 74 lo que podria causar pandemias Se observa un crecimiento exponencial en el sector biotecnologico Noun y Chyba predicen que esto llevara a una gran mejora en estas tecnicas en las proximas decadas 74 Creen que los riesgos correspondientes de la guerra biologica y el bioterrorismo son mayores que los de las armas nucleares o quimicas porque los agentes infecciosos son mas faciles de producir y su produccion en masa es dificil de controlar y las capacidades tecnologicas correspondientes se vuelven accesibles incluso a individuos aislados 74 Hasta ahora los usos terroristas de la biotecnologia han sido raros pero no esta claro si esto se debe a la falta de recursos o la falta de motivacion 74 El principal riesgo esperado en el futuro es la aparicion de agentes infecciosos geneticamente modificados o totalmente artificiales 74 En general se cree que la virulencia de los agentes infecciosos naturales que han evolucionado conjuntamente con sus hospedadores esta limitada por la necesidad de que los hospedadores sobrevivan lo suficiente para transmitir el agente 75 pero es posible modificar geneticamente estos agentes voluntaria o accidentalmente para cambiar su virulencia y otras caracteristicas 74 Por ejemplo un grupo de investigadores australianos modifico involuntariamente las caracteristicas del virus de la viruela del raton al tratar de desarrollar un virus que esterilizaria a los roedores 74 El virus modificado se ha vuelto extremadamente letal incluso en ratones vacunados o naturalmente resistentes 76 77 78 Si no estan estrictamente reguladas las tecnologias que permiten la manipulacion genetica de las caracteristicas de los virus pueden estar disponibles en el futuro 74 Noun y Chyba proponen tres categorias de medidas para reducir los riesgos de pandemias naturales o artificiales regulacion o prohibicion de investigaciones potencialmente peligrosas mejora de la vigilancia de la salud y desarrollo de medios para combatir la propagacion de epidemias por ejemplo mediante la produccion de vacunas mas eficaces y su distribucion mas amplia 74 Nanotecnologia Editar Muchas nanotecnologias estan en desarrollo o ya se utilizan 79 La unica que parece representar un riesgo significativo de catastrofe global es el ensamblaje molecular una tecnica que permitiria construir estructuras complejas con precision atomica 80 El ensamblaje molecular es por el momento un concepto puramente teorico que requiere avances significativos en nanotecnologia pero que podria permitir producir objetos sofisticados en grandes cantidades y a bajo costo en nanofabricas del tamano de impresoras 3D que son una version gruesa y macroscopica del mismo concepto 79 80 Cuando estas nanofabricas pueden producir otras la produccion puede estar limitada solo por la cantidad de recursos relativamente abundantes como materias primas energia y software Asi podrian entre otras cosas fabricar a un precio bajo armas sofisticadas autonomas y duraderas 79 Chris Phoenix clasifica los riesgos de desastres creados por la nanotecnologia en tres categorias 81 Acelerar el desarrollo de otras tecnologias como la inteligencia artificial o la biotecnologia Produccion en masa de objetos potencialmente peligrosos creando una dinamica de riesgo como la carrera de armamentos Creacion de procesos de reproduccion sin freno con efectos destructivos Sin embargo tambien senala que es probable que las nanotecnologias reduzcan muchos otros riesgos globales de desastres 79 Varios investigadores dicen que la mayoria de estos riesgos provienen del potencial militar y la carrera de armamentos 76 79 82 Se han sugerido varias razones por las cuales estas tecnicas podrian conducir a una escalada inestable a diferencia de por ejemplo las armas nucleares Un gran numero de actores pueden verse tentados a participar en la escalada siendo el costo correspondiente bajo 79 La fabricacion de armas por este metodo es barata y facil de camuflar 79 La dificultad de controlar las intenciones de los otros actores empuja a armarse con prudencia y desencadenar ataques preventivos 79 83 El ensamblaje molecular disminuye la dependencia del comercio internacional 79 que es un factor de paz Una guerra de agresion se vuelve economicamente mas interesante para el agresor ya que la fabricacion de armas es barata y los humanos menos necesarios en el campo de batalla 79 La autorregulacion de todos los actores ya sean estatales o no parece dificil de lograr 84 las medidas para limitar los riesgos de armamento y guerra se propusieron principalmente en el marco del multilateralismo 79 85 Se debe desarrollar una infraestructura internacional tal vez analoga a la Agencia Internacional de Energia Atomica y dedicada especificamente a las nanotecnologias que otorgue mas poder al nivel supranacional 85 Tambien es posible fomentar el desarrollo tecnologico diferencial favoreciendo las tecnologias defensivas 79 86 Otras catastrofes planetarias debidas a las nanotecnologias son concebibles Asi en 1986 en su libro Engines of Creation 87 Eric Drexler considero la nocion de plaga gris un tema a menudo tratado por los medios y la ciencia ficcion 88 89 Este escenario involucra pequenos robots autorreplicantes que destruirian toda la biosfera al utilizarla como fuente de energia y materiales Sin embargo ahora los expertos en este campo incluido Drexler han desacreditado este escenario Segun Chris Phoenix una plaga gris no podria ser mas que el resultado de un proceso delicado y deliberado y no de un accidente 90 Accidentes relacionados con una tecnologia experimental Editar La biotecnologia podria conducir al desarrollo de pandemias incurables las guerras quimicas conducen a una contaminacion irremediable las nanotecnologias producen plagas grises catastroficas De manera mas general Nick Bostrom sugirio que cada nueva tecnologia puede revelar el riesgo impensable antes y que en su busqueda del conocimiento la humanidad podria crear aun inadvertidamente alguna capaz de destruir el sistema de la Tierra e incluso el sistema solar 91 en concreto la investigacion en fisica de particulas puede crear condiciones excepcionales con consecuencias catastroficas Ya a algunos cientificos les preocupaba que la primera prueba nuclear pudiera incendiar la atmosfera 92 93 y mas recientemente ha habido especulaciones alarmistas sobre la posible produccion de micro agujeros negros 94 strangelets u otros estados fisicos anormales en el Gran colisionador de hadrones y considerando una reaccion en cadena que podria llevar al desastre Estos temores particulares obviamente no se materializaron y ya se habian refutado mediante el calculo 95 96 97 98 pero cada nuevo avance tecnologico puede dar lugar a temores similares n 4 Riesgos no antropogenicos Editar Los riesgos descritos en esta seccion corresponden a riesgos independientes de acciones humanas La mayoria con la excepcion principalmente de las pandemias tambien estan escasamente mitigados por posibles medidas preventivas Su probabilidad anual comparada con la de los riesgos de origen humano es sin embargo muy a menudo estimada como insignificante 11 Pandemia global Editar La mortalidad pandemica es igual a la virulencia del agente infeccioso multiplicada por el numero total de personas infectadas En general se supone que existe un limite a la virulencia de los agentes infecciosos que han evolucionado conjuntamente con sus anfitriones 75 porque un agente que mata a su huesped con demasiada rapidez no tendra tiempo para propagarse 99 Este modelo simple predice que si no existe un vinculo entre la virulencia y el modo de transmision los agentes infecciosos evolucionaran hacia formas menos virulentas y de rapida propagacion Sin embargo esta hipotesis no siempre se verifica y cuando existe una relacion entre la virulencia y la transmision por ejemplo debido a que la descomposicion del cadaver libera el agente infeccioso pueden aparecer niveles altos de virulencia 100 limitados solo por otros factores como las interacciones entre diferentes hospedadores pulgas ratas y humanos en el caso de plaga por ejemplo 75 101 Ademas si la pandemia es un fenomeno secundario relacionado con una zoonosis la virulencia en los seres humanos puede ser total 102 Muchas pandemias historicas han tenido un efecto devastador en grandes poblaciones la mas conocida es la Peste Negra entre 1347 y 1352 y la gripe de 1918 esto implica que una pandemia global podria representar una amenaza realista para la civilizacion La vigilancia de la salud actual hace que la probabilidad de una pandemia de este tipo sea bastante baja al menos para los agentes infecciosos similares a los conocidos y en particular no modificados por el uso de biotecnologias Sin embargo la posibilidad de que aparezca un nuevo agente patogeno como en el caso de enfermedades emergentes o de que una mutacion haga que un virus como la gripe sea mucho mas virulento nunca se puede descartar Un debilitamiento de los servicios de salud vinculados por ejemplo a una crisis economica tambien podria hacer que esta catastrofe mundial sea mucho mas importante Sin estar directamente relacionados con las pandemias la aparicion de superbacterias resistentes a todos los antibioticos plantea nuevas amenazas de crisis para la salud 103 104 Por otro lado las enfermedades como la obesidad o las alergias aunque no son contagiosas se describen metaforicamente como pandemias 105 106 y si se expandieran podrian terminar ejerciendo presiones disgenicas significativas a escala global 107 Cambio climatico Editar El cambio climatico es un cambio duradero en los climas globales En un pasado relativamente reciente geologicamente la Tierra ha experimentado climas que van desde los periodos glaciales hasta episodios tan calientes como para crecer palmeras en la Antartida Se supone ademas que los episodios de la llamada Glaciacion global terrestre donde todos los oceanos estaban cubiertos de hielo tuvieron lugar en un pasado mucho mas remoto Los cambios climaticos repentinos en unas pocas decadas se han producido a escala regional por ejemplo durante la Pequena Edad de Hielo o durante el optimo climatico medieval pero el cambio climatico global se ha producido lentamente al menos desde principios del Cenozoico y el clima se ha vuelto aun mas estable desde el final de la ultima era glacial hace diez mil anos Dado que la civilizacion y en particular la agricultura se ha desarrollado durante un periodo de climas estables una variacion natural hacia un nuevo regimen climatico mas calido o mas frio podria constituir un riesgo de catastrofe global 108 El periodo actual el Holoceno se considera un episodio interglacial en medio de una oscilacion bastante regular entre glaciaciones y deglaciaciones de un periodo de aproximadamente 50 000 anos que se explica por la teoria astronomica de los paleoclimas Una nueva glaciacion seria sin duda un desastre global en el sentido de Bostrom pero ademas el modelo no la predice para los proximos milenios La intervencion del calentamiento global probablemente cambiara la evolucion de los climas incluso puede llevar a la aparicion de regimenes muy diferentes de los que la Tierra ha conocido en el pasado 19 Vulcanismo Editar Extension de la capa de ceniza depositada despues de la ultima erupcion de la caldera de Yellowstone hace 640 000 anos La erupcion de un supervolcan 109 110 puede llevar a un invierno volcanico similar a un invierno nuclear vinculado a una contaminacion significativa azufre ceniza y dioxido de carbono Un evento de este tipo la erupcion de Toba 111 ocurrio en Indonesia hace aproximadamente 71 500 anos Segun la teoria del desastre de Toba 112 esta erupcion podria haber reducido las poblaciones humanas a decenas de miles de personas La Caldera de Yellowstone es otro de estos supervolcanes ya que ha experimentado al menos 142 erupciones formadoras de caldera en los ultimos 17 millones de anos incluida una docena de supererupciones 113 En la ultima de estas erupciones hace 640 000 anos las cenizas expulsadas cubrieron todos los Estados Unidos al oeste del Mississippi asi como el noroeste de Mexico 113 Este tipo de erupcion tiene consecuencias importantes en el clima global que puede llegar a provocar una glaciacion si el sol permanece oculto por las cenizas o por el contrario un calentamiento global si son los gases de efecto invernadero los que prevalecen En una escala menor esto ocurrio en 1816 despues de la erupcion de Tambora lo que resulto en un ano sin verano Aunque no estan sujetas al mismo mecanismo las erupciones que dieron origen a las provincias magmaticas probablemente esten acompanadas durante decenas o incluso cientos de miles de anos de emisiones de gas y polvo en una cantidad comparable a la de los supervolcanes Siguen siendo mucho mas raras la mas reciente la del grupo basaltico de Columbia que ocurrio hace unos quince millones de anos y en general se las considera responsables de las extinciones masivas mas importantes la extincion de los Permicos Por ejemplo la del Triasico se correlaciona con la formacion de los traps siberianos Esto es claramente un riesgo existencial pero probablemente nos avisaria con milenios de anticipacion Otros peligros geologicos Editar El campo magnetico de la Tierra se ha invertido muchas veces durante su historia dejando huellas particulares en las rocas del fondo del oceano permitiendo datar la fecha de estas inversiones Actualmente son infrecuentes ocurriendo la ultima hace 780 000 anos En el momento de la transicion el campo se debilita considerablemente permitiendo que la radiacion viento solar erupciones solares rayos cosmicos alcancen el suelo poniendo en peligro la civilizacion al aumentar los canceres las mutaciones etc Estas teorias siguen siendo sin embargo actualmente desacreditadas parcialmente ya que el analisis estadistico no muestra correlacion entre estas inversiones y las extinciones en masa 114 115 Representacion artistica de un impacto meteoritico de escala planetaria causando un megatsunami Otro riesgo de desastre global es un megatsunami una ola gigante que podria ser causada por ejemplo por el colapso de una isla volcanica La probabilidad de este tipo de evento ha sido muy exagerada por los medios de comunicacion 116 y estos escenarios solo corresponden a catastrofes regionales Sin embargo un impacto cosmico que ocurra en el oceano como el correspondiente a la extincion de los dinosaurios podria causar que un megatsunami que arrastre continentes enteros cita requerida Impacto cosmico Editar Meteor Barringer un crater de impacto de hace 50 000 anos Varios asteroides han chocado con la Tierra durante su historia El asteroide de Chicxulub por ejemplo es la causa mas probable de la extincion de los dinosaurios no aviares hace 66 millones de anos al final del Cretacico 117 Un objeto de mas de un kilometro de diametro que golpee la Tierra probablemente destruiria la civilizacion y a partir de tres kilometros tendria una buena posibilidad de provocar la extincion de la humanidad 118 Se estima que estos impactos ocurren en promedio una vez por cada 500 000 anos los impactos de objetos grandes que exceden los 10 kilometros son aproximadamente 100 veces menos frecuentes 118 El escenario de una colision combina varias de las catastrofes planetarias vistas anteriormente invierno de impacto desencadenamiento de erupciones volcanicas y megatsunami si el impacto tiene lugar en el oceano pero tambien terremotos tormentas de fuego etc 119 Otras amenazas cosmicas Editar Erupcion solar con eyecciones en largos filamentos que exceden la distancia Tierra Luna Aparte de los impactos de asteroides y posiblemente las erupciones solares excepcionales otras amenazas identificables generalmente corresponden a escenarios a muy largo plazo o muy poca plausibilidad y no es posible en el futuro previsible protegerse de ellas Por lo tanto el Sol pasara inevitablemente a traves de una fase de expansion transformandolo en un gigante rojo que posiblemente abarcara la orbita de la Tierra en aproximadamente 7 mil millones de anos 120 De manera similar las simulaciones de movimientos planetarios a largo plazo muestran que una colision entre Mercurio y la Tierra un riesgo existencial para cualquier forma de vida tiene una probabilidad no insignificante de ocurrir dentro de unos pocos miles de millones de anos 121 Estallido de rayos gamma vision del artista Muchos eventos de alta energia como los estallidos de rayos gamma 122 supernovas e hipernovas plantearian riesgos existenciales si ocurrieran a unos pocos cientos de anos luz de la Tierra una hipernova podria ser la causa de la extincion del ordovicico siluriano 123 Sin embargo se estima que la probabilidad de tal ocurrencia es muy baja 124 Una famosa nebulosa oscura Los pilares de la creacion Otros riesgos como el paso del sistema solar a traves de una nebulosa oscura o una nube de polvo cosmico que podria provocar un cambio climatico significativo o el acercamiento de otra estrella a menos de un ano luz del sol tambien se estima que tienen una probabilidad insignificante durante los proximos milenios 125 Vida extraterrestre Editar Desde La guerra de los mundos la vida extraterrestre y sus interacciones con la especie humana son temas recurrentes de la ciencia ficcion Sin embargo aunque cientificos como Carl Sagan creen que su existencia pero no necesariamente la existencia de inteligencia alienigena es muy probable las distancias interestelares son tales que una interaccion con la humanidad parece poco probable El unico riesgo que puede considerarse razonablemente es el de la contaminacion accidental por ejemplo por las bacterias de Marte e incluso este escenario se considera muy poco realista 126 Estimacion de la probabilidad de riesgo EditarAlgunos peligros que no dependen de acciones humanas tienen una probabilidad que puede calcularse con precision Por lo tanto la probabilidad de que la humanidad desaparezca durante el proximo siglo debido a un impacto cosmico seria una posibilidad entre un millon 127 aunque algunos cientificos dicen que el riesgo podria ser mucho mayor 128 129 De manera similar la frecuencia de erupciones volcanicas de magnitud suficiente para crear una catastrofe climatica similar a la resultante de la explosion de Toba que podria haber causado la casi extincion de la humanidad 130 se estima en una por cada 50 000 anos 109 El peligro relativo que representan otras amenazas es mucho mas dificil de estimar En 2008 en la Conferencia de la Universidad de Oxford sobre Riesgos de Desastres Globales un grupo de expertos reputados que reunieron su experiencia en diferentes tipos de riesgo sugirieron un 19 de probabilidad de extincion de la especie en el proximo siglo sin embargo el informe de la conferencia advierte que el metodo utilizado para sintetizar las respuestas dadas no tiene en cuenta correctamente la falta de respuestas a ciertas preguntas 14 El informe anual de 2016 de la Global Challenges Foundation senala que incluso las estimaciones mas optimistas implican que el estadounidense promedio tiene cinco veces mas probabilidades de morir en una catastrofe global que en un accidente automovilistico 131 132 La estimacion precisa de estos riesgos presenta considerables dificultades metodologicas La mayor atencion se ha prestado a los riesgos durante los proximos cien anos pero los pronosticos de este tiempo son dificiles Si las amenazas planteadas por la naturaleza son relativamente constantes aunque pueden descubrirse nuevos riesgos es probable que las amenazas antropogenicas cambien dramaticamente con el desarrollo de nuevas tecnologias La capacidad de los expertos para predecir el futuro en tales escalas de tiempo en el pasado ha demostrado ser bastante limitada Ademas ademas de los aspectos tecnologicos de estas nuevas amenazas el analisis de su impacto en la sociedad y su capacidad para defenderla esta limitado por las dificultades metodologicas de las ciencias sociales y la velocidad con la que las relaciones internacionales pueden cambiar 131 Los riesgos existenciales plantean otros problemas de estimacion debido a un importante sesgo de seleccion el principio antropico A diferencia de la mayoria de los otros desastres el hecho de que nunca se haya producido una extincion masiva en relacion con la humanidad en el pasado no da informacion sobre la probabilidad de que ocurra tal evento en el futuro porque por definicion una extincion no deja ningun observador humano y asi aunque el desastre que constituye un riesgo existencial era muy probable el hecho de que la humanidad sobreviviera solo significaria que tuvo mucha suerte 133 Sin embargo sigue siendo posible estimar estos riesgos utilizando eventos similares que han dejado su huella como los cinco episodios de extincion principales que precedieron a la aparicion de los humanos a veces tambien es posible calcular los efectos de una catastrofe tecnologica en particular por ejemplo un invierno nuclear 5 Paradoja de Fermi Editar En 1950 el genial fisico italiano Enrico Fermi se pregunto por que la humanidad todavia no se habia encontrado con civilizaciones extraterrestres Su pregunta era donde estan todos 134 Dada la edad del universo y su gran numero de estrellas la vida extraterrestre debe ser trivial a menos que la Tierra sea muy atipica Es esta la peculiaridad que se conoce como paradoja de Fermi Aunque no sea ampliamente aceptada una explicacion de la paradoja es la nocion de riesgo existencial mas especificamente la idea de que las civilizaciones que deberiamos estar observado o quien nos pudo haber visitado se destruyen antes de que apareciera la humanidad 133 135 Importancia economica y etica de los riesgos existenciales EditarLa reduccion de los riesgos existenciales beneficia principalmente a las generaciones futuras Segun la estimacion de su numero se puede considerar que una ligera disminucion del riesgo tiene un gran valor moral Derek Parfit dice que nuestros descendientes podrian sobrevivir otros cinco mil millones de anos hasta que la expansion del Sol haga que la Tierra sea inhabitable 136 137 Nick Bostrom incluso piensa que la colonizacion del espacio permitiria que un numero astronomico de personas sobreviviera durante cientos de miles de millones de anos 6 Es la comparacion entre la poblacion actual y esta gran cantidad de potenciales descendientes destruidos por la extincion lo que justifica que se haga todo lo posible para reducir los riesgos Estas posiciones no han sido muy disputadas aunque desde un punto de vista economico se debe tener en cuenta que el valor de un bien actual es mas importante que el valor del mismo bien si solo se puede disfrutar en el futuro El modelo mas utilizado el de descuento exponencial podria hacer que estos beneficios futuros sean mucho menos significativos Sin embargo Jason Gaverick Matheny afirmo que este modelo es irrelevante para determinar el valor de la reduccion de riesgos existenciales 127 Algunos economistas han tratado de estimar la importancia de los riesgos de catastrofe global pero no los riesgos existenciales Martin Weitzman sostiene que la expectativa en el sentido estadistico del costo economico del cambio climatico es significativa debido a situaciones en las que los modelos afectan una probabilidad baja pero causan danos catastroficos 138 En general Richard Posner piensa que hacemos muy poco para mitigar los riesgos de catastrofes globales cuando son debiles y dificiles de estimar 7 Ademas de los sesgos cognitivos que se analizan en la siguiente seccion tambien hay razones economicas por las que se hacen pocos esfuerzos para reducir los riesgos existenciales e incluso algunos riesgos de catastrofes globales no irreparables Estos riesgos se refieren a un bien global es decir que incluso si una gran potencia los reduce beneficiara solo una pequena parte de la ganancia correspondiente ademas la mayoria de estos beneficios seran recaudados por las generaciones futuras quienes obviamente no tienen forma de pagar un seguro contra estos riesgos para las generaciones actuales 5 Percepcion de riesgos Editar Los cuatro jinetes del Apocalipsis en una pintura de Viktor Vasnetsov de 1887 de izquierda a derecha Peste Hambre Guerra y Conquista De acuerdo con Eliezer Yudkowsky muchos sesgos cognitivos pueden influir en como los individuos y los grupos perciben la importancia de los riesgos de desastres globales incluida la insensibilidad al alcance la heuristica de disponibilidad el sesgo de representatividad la heuristica de la afectividad y el efecto de exceso de confianza 139 Por lo tanto la falta de sensibilidad en la medida hace que las personas a menudo esten mas preocupadas por las amenazas individuales que las dirigidas a grupos mas grandes 139 por lo que sus donaciones por causas altruistas no son proporcionales a la magnitud del problema 140 es por eso que no consideran la extincion de la humanidad como un problema tan serio como deberia ser De manera similar el sesgo de representatividad los lleva a minimizar los desastres que tienen poco que ver con los que han llegado a conocer y a asumir que el dano que causaran no sera mucho mas serio 139 A menudo se ha senalado 141 que la mayoria de los riesgos antropogenicos mencionados anteriormente corresponden a mitos que a menudo son muy antiguos los de Prometeo Pandora y mas recientemente el del aprendiz de brujo que es el mas representativo El simbolismo de los cuatro jinetes del Apocalipsis los ultimos tres que representan la Guerra el Hambre y la Peste ya esta en el Antiguo Testamento en la forma de la incomoda eleccion ofrecida por Dios al rey David 142 Los diversos riesgos de revuelta de las maquinas aparecen en el mito del Golem y combinados con las biotecnologias en la historia del monstruo de Frankenstein Por otro lado se ha sugerido que las narrativas de desastres de varias tradiciones religiosas donde estan mas relacionadas con la ira de las deidades corresponderian a recuerdos de catastrofes reales por ejemplo el Diluvio estaria vinculado a la reconexion el Mar de Marmara con el Mar Negro bajo el nombre de catastrofismo coherente catastrofismo coherente 129 Victor Clube y Bill Napier desarrollaron la hipotesis de que las lluvias de meteoros catastroficos han dado a luz a muchos mitos cosmologicos que van desde la historia de la destruccion de Sodoma y Gomorra tesis tambien defendida por Marie Agnes Courty a las descripciones del Apocalipsis 143 Sin embargo sus ideas son poco aceptadas por la comunidad cientifica 144 La existencia de estas interpretaciones miticas asi como muchas de las profecias del fin del mundo facilita un fenomeno de negativa parcial o total a tener en cuenta estos riesgos de desastre conocido como sindrome de Casandra n 5 145 Si bien los riesgos antropogenicos se minimizan al atribuirlos a temores irracionales las catastrofes descritas en los mitos se consideran exageradas por la ignorancia y la deformacion de los recuerdos n 6 146 El analisis de los riesgos causados por los humanos sufre de dos sesgos opuestos los informantes tienden a exagerar el riesgo para hacerse oir n 7 incluso a denunciar riesgos imaginarios en nombre del principio de precaucion 147 Los poderosos intereses economicos por otro lado tratan de minimizar los riesgos asociados con sus actividades como lo demuestra por ejemplo el caso del Instituto lt i id mwA2s gt Heartland lt i gt 148 y mas generalmente al analizar las estrategias de desinformacion expuestas en Les Mercaderes de la duda n 8 Dando una interpretacion racional al mito de la edad de oro Jared Diamond finalmente senala que ciertas catastrofes los colapsos de Nick Bostrom pueden pasar desapercibidas a las sociedades que las sufren por falta de una memoria historica suficiente n 9 por ejemplo explica el desastre ecologico sufrido por los habitantes de la Isla de Pascua 149 Organizaciones de evaluacion de riesgos Editar Pictograma del reloj del fin del mundo El Boletin de los cientificos atomicos es una de las organizaciones mas antiguas preocupadas por los riesgos globales Fue fundada en 1945 despues de que el bombardeo de Hiroshima hiciera al publico consciente de los peligros de las armas atomicas Estudia los riesgos asociados con las tecnologias nucleares y las armas y es famoso por su gestion del Reloj del fin del mundo desde 1947 En 1972 el trabajo del Club de Roma dio lugar a un informe famoso Detener el crecimiento que alerta contra el riesgo de agotamiento de recursos naturales y desastres ecologicos antes de finales del siglo XXI Publicado a mediados de los treinta anos gloriosos el informe es impugnado energicamente en cuanto se publica por su pesimismo n 5 150 pero sus supuestos se consideran bastante optimistas cuarenta anos despues de su publicacion por el Club El agotamiento en realidad ocurriria antes de mediados del siglo XXI 151 Desde principios de la decada de los 2000 un numero cada vez mayor de cientificos filosofos y multimillonarios de las nuevas tecnologias han creado organizaciones independientes o academicamente dedicadas al analisis global de riesgo de desastres 152 Dichas organizaciones no gubernamentales ONG incluyen el Instituto de Investigacion de Inteligencia de las Maquinas establecido en el 2000 cuyo objetivo es reducir el riesgo de desastres relacionados con la inteligencia artificial y la singularidad tecnologica 153 y del cual Peter Thiel es un donante importante 154 Mas recientemente la Fundacion Lifeboat establecida en 2006 financia investigaciones para prevenir un desastre tecnologico 155 y la mayor parte de los fondos se destina a proyectos universitarios 156 El Future of Life Institute se creo en 2014 para buscar los medios de salvaguardar la humanidad frente a nuevos desafios tecnologicos 157 Elon Musk es uno de los mayores donantes 158 Entre las organizaciones subordinadas a las universidades estan el Instituto del futuro de la Humanidad fundado en 2005 por Nick Bostrom en la Universidad de Oxford para llevar a cabo la investigacion sobre el futuro a largo plazo de la humanidad y los riesgos existenciales el Centro del Estudio de Riesgos Existenciales fundado en 2012 en la Universidad de Cambridge y del cual Stephen Hawking era consultor para estudiar cuatro riesgos antropogenicos inteligencia artificial biotecnologias calentamiento global y los riesgos de la guerra o en la Universidad de Stanford el Centro para la Seguridad Internacional y la Cooperacion que estudia las politicas de cooperacion para reducir el riesgo global de desastres 159 Finalmente otros grupos de evaluacion de riesgos pertenecen a organizaciones gubernamentales Por ejemplo la Organizacion Mundial de la Salud OMS tiene un departamento llamado Alerta y Respuesta Global GAR que es responsable de la coordinacion entre los Estados Miembros en caso de una pandemia 160 161 La Agencia de los Estados Unidos para el Desarrollo Internacional USAID tiene un programa similar 162 El Laboratorio Nacional Lawrence Livermore tiene una division la Direccion Principal de Seguridad Global para estudiar asuntos gubernamentales tales como la bioseguridad la accion contra el terrorismo etc 163 Precauciones y prevencion EditarEl concepto de gobernanza global que respeta los limites planetarios se ha propuesto como un enfoque para la reduccion del riesgo de desastres En particular el campo de la geoingenieria planea manipular el entorno global para combatir los cambios antropogenicos en la composicion atmosferica Se han explorado tecnicas integrales de almacenamiento y conservacion de alimentos pero sus costos serian altos y podrian agravar las consecuencias de la desnutricion David Denkenberger y Joshua Pearce han sugerido el uso de alimentos alternativos para reducir el riesgo de inanicion relacionada con catastrofes globales como un invierno nuclear o un cambio climatico repentino 164 como la conversion de la biomasa de la madera en productos comestibles 165 sin embargo se necesitara mucho progreso en esta area para garantizar que estos metodos permitan que una parte significativa de la poblacion sobreviva 166 Otras sugerencias de reduccion de riesgos como las estrategias de desviacion de asteroides para contrarrestar el riesgo de impacto o el desarme nuclear son economica o politicamente dificiles de implementar Finalmente la colonizacion del espacio es otra propuesta hecha para aumentar las posibilidades de supervivencia ante un riesgo existencial 167 pero las soluciones de este tipo actualmente inaccesibles sin duda requeriran entre otras cosas el uso a gran escala de la ingenieria Entre las precauciones realmente tomadas individual o colectivamente se pueden mencionar El establecimiento de reservas de alimentos planeadas para varios anos y otros recursos para los supervivientes en el marco de por ejemplo la construccion de refugios antiatomicos La Reserva Mundial de Semillas de Svalbard una boveda subterranea en la isla noruega de Spitsbergen destinada a mantener seguras las semillas de todos los cultivos de alimentos del mundo preservando asi la diversidad genetica Algunas de estas semillas deben conservarse durante varios miles de anos 168 En mayo de 2017 la boveda se inundo con el derretimiento del permafrost debido al calentamiento global sin danar las reservas de semillas 169 170 Analisis y criticas EditarLa importancia de los riesgos detallados en las secciones anteriores rara vez se niega aunque los riesgos para los humanos a menudo se minimizan n 8 sin embargo los analisis de Nick Bostrom han sido criticados desde varias perspectivas distintas Criticas tecnicas Editar Muchos de los riesgos mencionados por Nick Bostrom en sus libros se consideran exagerados o imaginarios o corresponden a escalas de tiempo tan amplias que parece un tanto absurdo considerarlos con amenazas casi inmediatas 171 n 10 Ademas los calculos de probabilidad esperanza o utilidad son dificiles o estan mal definidos para este tipo de situacion como lo demuestran por ejemplo las paradojas como el argumento del apocalipsis como lo reconoce el propio Nick Bostrom 172 171 En particular ha desarrollado un argumento etico que indica que el numero exorbitante de nuestros descendientes condenado por una catastrofe existencial justifica el uso de todos los medios imaginables para disminuir si acaso la probabilidad de este accidente 6 sin embargo los calculos en los que se basa se han disputado y este argumento bien puede ser una falacia 127 Nick Bostrom y Max Tegmark publicaron en 2005 un analisis del riesgo de inestabilidad de todo el universo 173 Independientemente de la validez de sus calculos que tienden a mostrar que el riesgo es muy bajo uno puede preguntarse si realmente tiene significado hablar de una catastrofe de la que nadie seria advertido de antemano y que no dejaria ningun observador En una discusion similar sobre el riesgo de una reaccion en cadena que envolviera toda la atmosfera un amigo respondio a las inquietudes de Richard Hamming con No te preocupes Hamming no quedara nadie para maldecirte 92 Posiciones filosoficas Editar Los analisis de Nick Bostrom se basan en el transhumanismo una ideologia que defiende el uso de la ciencia y la tecnologia para mejorar las caracteristicas fisicas y mentales de los seres humanos por lo tanto considera que todo lo que podria impedir a la humanidad desarrollar plenamente su potencial es un riesgo existencial 3 Esta posicion ha sido severamente criticada en parte porque conduce a la negacion de los valores a los que se une la humanidad actual en nombre de los valores futuros hipoteticos 8 Steve Fuller senala en particular que si un desastre global no destruye a toda la humanidad los sobrevivientes pueden estimar legitimamente en algunos casos que su situacion ha mejorado 174 En la ficcion Editar Representacion de Gilgamesh Literatura Editar Los escenarios de desastre global aparecen en los mitos mas antiguos conocidos un diluvio que ahoga a todos los seres vivos en la Epopeya de Gilgamesh destruccion por hielo agua o fuego en el mito nordico de Ragnarok la lista de las diez plagas de Egipto etc 175 Pero ninguna de estas historias ni las propuestas por la ciencia ficcion hasta alrededor de 1950 se preocupan por las probabilidades cientificas o sociologicas Las descripciones de las distopias correspondientes a los aullidos de Nick Bostrom con la notable excepcion de 1984 tambien prestan poca atencion a la coherencia y viabilidad de los sistemas que proponen Bombas de Hiroshima y Nagasaki Despues de Hiroshima se esta desarrollando una abundante literatura post apocaliptica que incluye trabajos no clasificados en el campo de la ciencia ficcion como Malevil pero la mayoria de estas novelas se centran en la cuestion de la supervivencia y no en las causas del desastre casi siempre nuclear n 4 En 1985 Jacques Goimard explicara la popularidad de estas historias por el deseo de derrumbarse 176 A principios de la decada de 1970 surgieron descripciones de desastres ambientales descritos con realismo Por ejemplo John Brunner publico All in Zanzibar 1968 y The Blind Herd 1972 denunciando respectivamente los peligros de la superpoblacion y la contaminacion y afirmando ser cientificamente irreprochables se basa en una documentacion muy actualizada que refleja los analisis de los movimientos ecologistas iniciales y es sorprendentemente precisa en sus predicciones 177 Las novelas que describen desastres debidos a las nuevas tecnologias inteligencia artificial biotecnologias nanotecnologias etc no aparecen antes de 1990 y siguen siendo marginales Muchos de los autores estan mas preocupados como en las novelas sobre cultura de Iain Banks sobre como los humanos podrian adaptarse a estas tecnologias en universos inspirados en ideas transhumanistas Cine Editar Los desastres han sido un tema de eleccion desde los inicios de la historia del cine con por ejemplo en 1927 Metropolis considerada como la primera pelicula distopica pero la dificultad de la realizacion de efectos especiales convincentes hace que los directores esten mas apegados a la descripcion de un mundo devastado como en la serie de lt i id mwBBg gt Mad Max lt i gt Desde la decada de 1990 los enormes avances en efectos especiales digitales le dan a las peliculas un nuevo aliento El Dia de la Independencia relata una invasion extraterrestre el Volcano el estallido de un volcan en la ciudad o el Armagedon que describe la destruccion de un asteroide que amenaza con el impacto Tambien podemos citar las peliculas de la serie Terminator y las de la serie Matrix que ilustra la revuelta de las maquinas En 2004 The Day After Roland Emmerich describe un repentino cambio climatico Sin embargo todas estas peliculas han sido criticadas por su falta de realismo o probabilidad 178 n 11 Mas recientemente otros tipos de desastres globales especialmente pandemias han sido objeto de peliculas menos exigentes y de hecho mas realistas siendo la pelicula mas famosa de este tipo Contagio Notas Editar En negligeant les evenements de tres faible probabilite comme les impacts cosmiques par des objets de plus de 3 km de diametre au demeurant minimises par les theories de l epoque concernant les grandes extinctions attribuees a des causes graduelles D autres auteurs comme Jared Diamond ou Paul R Ehrlich utilisent plutot le terme effondrement collapse El riesgo de extincion completa esta obviamente disminuido por el tamano mismo de la humanidad mas de 7 500 millones de personas y la existencia de grupos que desarrollan estrategias de supervivencia para la mayoria de los desastres posibles a b Des catastrophes realistes provenant de l apparition d une nouvelle technologie ont ete parfois envisagees par des auteurs de science fiction des les annees 1950 un celebre exemple etant l invention de la glace neuf dans le roman de Kurt Vonnegut Le Berceau du chat a b Bajo el titulo Cassandra s Curse un analisis de Ugo Bardi del cual aqui se encuentra la version original en ingles se publico en 2011 estudiando la demonizacion del informe del Club de Roma titulado Stop Growth En L Eveil Oliver Sacks senala que incluso las pandemias relativamente recientes se minimizan la gripe de 1918 o se olvidan por completo encefalitis letargica Por lo tanto en The P Bomb Paul R Ehrlich anuncio en 1968 la hambruna masiva debido a la sobrepoblacion que se espera que ocurra antes de 1980 a b En Merchants of Doubt Naomi Oreskes y Erik M Conway muestran que las mismas estrategias de desinformacion utilizadas para negar los efectos nocivos del fumar se han utilizado para minimizar los efectos del calentamiento global la lluvia acida y la destruccion de panales ozono Al carecer de tradiciones escritas por ejemplo desconocen que en el pasado sus condiciones de vida eran mejores y repiten las acciones daninas de sus predecesores porque desconocen sus consecuencias Por lo tanto parece poco probable que un dia la humanidad pueda prevenir la expansion del Sol y solo la colonizacion de sistemas extra solares puede protegerlo Sin embargo este tipo de colonizacion en el estado actual de nuestro conocimiento se basa en capacidades tecnologicas y sociales muy alejadas de nuestras posibilidades actuales por lo general para mantener en las naves espaciales grandes civilizaciones estables de futuros colonos durante varias decenas de anos miles de anos un serio analisis de costo beneficio en este caso parece a muchos criticos totalmente ilusorio Por ejemplo explotar un asteroide como en Armageddon probablemente no protegera a la Tierra del impacto El cambio climatico descrito en The Next Day ademas de ser poco probable que cause una nueva edad de hielo en el corto plazo no puede de ninguna manera congelar a las personas que han quedado fuera Referencias Editar Celine Grislain Letremy 2013 Les risques majeurs et l action publique La Documentation francaise Scarwell Helga Jane Laganier Richard 2004 Risque d inondation et amenagement durable du territoire en frances Presses universitaires du Septentrion p 51 pagina y paginas redundantes ayuda ISBN 2 85939 870 8 a b c d Bostrom 2002 Bostrom 2008 p 1 lire en ligne a b c d Nick Bostrom 2013 Existential Risk Prevention as Global Priority Global Policy en ingles 15 31 doi 10 1111 1758 5899 12002 Consultado el 07 juillet 2014 a b c Bostrom Nick 2003 Astronomical Waste The opportunity cost of delayed technological development Utilitas en ingles 15 3 308 314 doi 10 1017 s0953820800004076 a b Posner 2004 Introduction Qu est ce qu une catastrophe a b Fukuyama Francis 2004 Transhumanism Foreign Policy en ingles Consultado el 28 mai 2012 Niall Firth 18 Juin 2010 Human race will be extinct within 100 years claims leading scientist en ingles Consultado el 8 mars 2016 Niall Firth 18 Juin 2010 Human race will be extinct within 100 years claims leading scientist en ingles Consultado el 8 mars 2016 a b Frequently Asked Questions en ingles Future of Humanity Institute Consultado el 26 juillet 2013 The Cambridge Project for Existential Risk en ingles Cambridge University Terminator center to open at Cambridge University Fox News en ingles 26 novembre 2012 a b en ingles Global Catastrophic Risks Survey Technical Report 2008 Future of Humanity Institute Julien Cattiaux Fabrice Chauvin Herve Douville et Aurelien Ribes novembre 2016 Des bulletins meteo extremes a prevoir La Recherche 517 2015 IT IS 3 MINUTES TO MIDNIGHT Bulletin of the Atomic Scientists en ingles 2015 a b Es medianoche menos dos minutos y medio antes del fin del mundo Le Figaro fr con AFP 27 de enero de 2017 en ingles The Doomsday Clock just moved It s now 2 minutes to midnight the symbolic hour of the apocalypse Lindsey Bever Sarah Kaplan et Abby Ohlheiser The Washington Post com 25 janvier 2018 a b Isaac M Held novembre 2000 Water Vapor Feedback and Global Warming Annu Rev Energy Environ 2000 en ingles 449 et suivantes Hansen James 2013 Climate sensitivity sea level and atmospheric carbon dioxide Royal Society Publishing en ingles 371 2001 20120294 doi 10 1098 rsta 2012 0294 Kendall Powell 2002 Tropical runaway greenhouse provides insight to Venus en ingles NASA Ames Research Center Fricke H C 2009 Polar methane production hothouse climates and climate change American Geophysical Union en ingles Fall Meeting Bibcode 2009AGUFMPP44A 02F Chiarelli B 1998 Overpopulation and the Threat of Ecological Disaster the Need for Global Bioethics Mankind Quarterly en ingles 39 2 225 230 Evans Pritchard Ambrose 6 fevrier 2011 Einstein was right honey bee collapse threatens global food security The Daily Telegraph en ingles Londres Valo Martine 2014 Il faut interdire l usage des pesticides neonicotinoides en Europe Le Monde en frances Groupe Le Monde Meadows 1974 p 129 et suiv de l edition anglaise en ingles Nations unies Departement des Affaires economiques et sociales 2013 World Population Prospects The 2012 Revision Key Findings and Advance Tables WPP2012KF Archivado desde el original el 16 de octubre de 2013 Consultado el 22 de marzo de 2019 a b Historical Estimates of World Population census gov en ingles US Census Bureau Archivado desde el original el 9 de julio de 2012 Consultado el 9 septembre 2013 The end of India s green revolution BBC News en ingles 29 mai 2006 Consultado el 31 janvier 2012 Food First Green Revolution en ingles Foodfirst org Consultado el 31 aout 2016 a b Matthieu Auzanneau 9 juillet 2012 Nier l imminence du pic petrolier est une erreur tragique Lemonde org Consultado el 10 aout 2016 a b c The Oil Drum Europe Agriculture Meets Peak Oil en ingles Europe theoildrum com Consultado el 31 janvier 2012 Eating Fossil Fuels en ingles EnergyBulletin net 02 octobre 2003 Archivado desde el original el 12 de febrero de 2012 Consultado el 31 janvier 2012 Dale Allen Pfeiffer 2007 Drawing Momentum from the Crash uncommonthought com en ingles Marc Bettinelli 2 aout 2017 Le jour du depassement de la Terre en infographies lemonde fr Consultado el 8 novembre 2017 Past Earth Overshoot Days overshootday com en ingles Cereal Disease Laboratory Ug99 an emerging virulent stem rust race en ingles Ars usda gov Consultado el 31 janvier 2012 Durable Rust Resistance in Wheat en ingles Wheatrust cornell edu Consultado el 31 janvier 2012 Ainsi une experience intensive sur les risques d hybridation avec le colza Hybridation entre le colza et la ravenelle en conditions proches de la pratique agricole inra fr 25 aout 2000 Consultado el 20 octobre 2016 a donne des resultats entierement negatifs Christiane Galus 15 aout 2002 Le nuage brun d Asie pourrait menacer le climat de la planete Le Monde Un air irrespirable la pollution atmospherique tue et coute de l argent banquemondiale org 8 septembre 2016 La llamada de alarma de quince mil cientificos sobre el estado del planeta Le Monde 13 de noviembre de 2017 Environnement l avertissement de 15 000 scientifiques face a la degradation de la planete France 24 France 24 en fr FR 14 de noviembre de 2017 Consultado el 17 de abril de 2018 Alerte de 15 000 scientifiques leurs 9 indicateurs de degradation de la planete analyses France Culture en fr FR 14 de noviembre de 2017 Consultado el 17 de abril de 2018 Martin Hellman 1985 On the Probability of Nuclear War stanford edu en ingles Avner Cohen Plantilla Google Livres Nuclear Weapons and the Future of Humanity The Fundamental Questions en ingles p 237 a b Federation of American Scientists 28 avril 2015 Status of World Nuclear Forces Federation of American Scientists en ingles Consultado el 4 juin 2015 en ingles The Doomsday Clock just moved It s now 2 minutes to midnight the symbolic hour of the apocalypse Lindsey Bever Sarah Kaplan et Abby Ohlheiser The Washington Post com 25 janvier 2018 Frank Dikotter 2010 La Grande Famine de Mao 1958 62 Walker amp Company p 13 ISBN 0 8027 7768 6 Brian Martin 1982 Critique of nuclear extinction Journal of Peace Research en ingles 19 4 287 300 doi 10 1177 002234338201900401 Consultado el 25 octobre 2014 L hiver nucleaire article de Richard Turco Owen Toon Thomas Ackerman James Pollack et Carl Sagan in La paix surarmee Belin 1987 traduction en francais de l article Nuclear Winter Global Consequences of Multiples Nuclear Explosions in Science Plantilla Abrd 222 Plantilla N p 1283 1292 23 decembre 1983 a b Shulman Carl 5 novembre 2012 Nuclear winter and human extinction Q amp A with Luke Oman Overcoming Bias en ingles Consultado el 25 octobre 2014 C Bardeen 2007 Atmospheric effects and societal consequences of regional scale nuclear conflicts and acts of individual nuclear terrorism Atmospheric Chemistry and Physics en ingles Consultado el 5 novembre 2016 Bostrom 2002 section 4 2 Herman Kahn 1960 On Thermonuclear War en ingles Princeton NJ USA Princeton University Press Christian Enemark 2006 Biological attacks and the non state actor A threat assessment Intelligence and National Security en ingles VIDEO La tempete solaire qui a failli renvoyer la Terre au 18e siecle bfmtv com BFM TV 25 juillet 2014 Consultado el 21 octobre 2016 La guerre de l eau lemonde fr 12 mars 2012 Consultado el 21 octobre 2016 Guerre de l eau le Pakistan menace l Inde lefigaro fr 27 septembre 2016 Consultado el 21 octobre 2016 Bruno Chaudret octobre 2013 Metaux et terres rares l autre probleme de la transition energetique Progressistes Consultado el 21 octobre 2016 Tainter 1990 Il a forme un groupe multidisciplinaire pour etudier la culture anasazi dans Evolving Complexity and Environmental Risk in the Prehistoric Southwest Santa Fe Institute Proceedings Plantilla Numero24 coedite avec Bonnie Bagley Tainter 1998 a b John Markoff 26 juillet 2009 Scientists Worry Machines May Outsmart Man The New York Times en ingles Error en la cita Etiqueta lt ref gt no valida el nombre nytimes july09 esta definido varias veces con contenidos diferentes Vernor Vinge 1993 The Coming Technological Singularity How to Survive in the Post Human Era rohan sdsu edu en ingles Bill Joy 2000 Why the future doesn t need us Wired en ingles Nick Bostrom 2002 Ethical Issues in Advanced Artificial Intelligence nickbostrom com en ingles Bostrom Nick 2014 Superintelligence Paths Dangers Strategies en ingles Oxford University Press ISBN 978 0199678112 Rawlinson Kevin Microsoft s Bill Gates insists AI is a threat en ingles BBC News Consultado el 30 janvier 2015 Mariette Le Roux 12 mars 2016 Rise of the Machines Keep an eye on AI experts warn Phys org en ingles Consultado el 13 mars 2016 P W Singer 21 mai 2009 Gaming the Robot Revolution A military technology expert weighs in on Terminator Salvation slate com en ingles Consultado el 21 octobre 2016 Laurent Orseau 1 juin 2016 Safely Interruptible Agents intelligence org en ingles Consultado el 21 octobre 2016 Yudkowsky Eliezer Artificial Intelligence as a Positive and Negative Factor in Global Risk yudkowsky net en ingles Consultado el 26 juillet 2013 Tim Adams 12 juin 2016 Artificial intelligence We re like children playing with a bomb The Observer en ingles Consultado el 24 octobre 2016 a b c d e f g h i Bostrom 2008 chapitre 20 Biotechnologie et biosecurite Error en la cita Etiqueta lt ref gt no valida el nombre GCRs bio chapter esta definido varias veces con contenidos diferentes Error en la cita Etiqueta lt ref gt no valida el nombre GCRs bio chapter esta definido varias veces con contenidos diferentes Error en la cita Etiqueta lt ref gt no valida el nombre GCRs bio chapter esta definido varias veces con contenidos diferentes a b c Steven Frank 1996 Models of parasite virulence Q Rev Biol en ingles 71 1 37 78 doi 10 1086 419267 Archivado desde el original el 18 de mayo de 2015 Consultado el 22 de marzo de 2019 Error en la cita Etiqueta lt ref gt no valida el nombre Frank SA 1996 37 78 esta definido varias veces con contenidos diferentes a b Sandberg Anders The five biggest threats to human existence theconversation com en ingles Consultado el 13 juillet 2014 Jackson Ronald J Ramsay Alistair J Christensen Carina D Beaton Sandra 2001 Expression of Mouse Interleukin 4 by a Recombinant Ectromelia Virus Suppresses Cytolytic Lymphocyte Responses and Overcomes Genetic Resistance to Mousepox Journal of Virology en ingles 75 3 1205 1210 doi 10 1128 jvi 75 3 1205 1210 2001 Consultado el 13 juillet 2014 en ingles Le virus tueur augmente la crainte du bioterrorisma article du New Scientist 10 janvier 2001 a b c d e f g h i j k l Bostrom 2008 chapitre 21 Nanotechnology as global catastrophic risk a b Frequently Asked Questions Molecular Manufacturing foresight org en ingles Archivado desde el original el 26 de abril de 2014 Consultado el 19 juillet 2014 Chris Phoenix et Mike Treder novembre 2003 Three Systems of Action A Proposed Application for Effective Administration of Molecular Nanotechnology crnano org en ingles Consultado el 19 juillet 2014 Drexler Eric A Dialog on Dangers foresight org en ingles Consultado el 19 juillet 2014 Drexler Eric Engines of Destruction Chapter 11 e drexler com en ingles Consultado el 19 juillet 2014 Dangers of Molecular Manufacturing crnano org en ingles Consultado el 19 juillet 2014 a b The Need for International Control crnano org en ingles Consultado el 19 juillet 2014 Technical Restrictions May Make Nanotechnology Safer crnano org en ingles Consultado el 19 juillet 2014 Joseph Lawrence E 2007 Apocalypse 2012 en ingles New York Broadway p 6 ISBN 978 0 7679 2448 1 Rincon Paul 09 juin 2004 Nanotech guru turns back on goo BBC News en ingles Consultado el 30 mars 2012 Hapgood Fred 1986 Nanotechnology Molecular Machines that Mimic Life Omni en ingles Consultado el 19 juillet 2014 Leading nanotech experts put grey goo in perspective crnano org en ingles Consultado el 19 juillet 2014 Bostrom 2002 section 4 8 a b Richard Hamming Mathematics on a Distant Planet en ingles Report LA 602 Ignition of the Atmosphere With Nuclear Bombs PDF en ingles Consultado el 19 octobre 2011 Robert Matthews 28 aout 1999 A Black Hole Ate My Planet New Scientist en ingles Consultado el 23 octobre 2016 Konopinski Emil Marvin C Teller Edward 1946 Ignition of the Atmosphere with Nuclear Bombs PDF Los Alamos National Laboratory en ingles LA 602 Consultado el 23 novembre 2008 en ingles Une declaration officielle concernant la securite du LHC Archivado el 24 de octubre de 2009 en Wayback Machine Safety at the LHC en ingles en ingles J Blaizot et al 2003 Study of Potentially Dangerous Events During Heavy Ion Collisions at the LHC doc cern ch en ingles CERN Archivado desde el original el 7 de septiembre de 2008 Consultado el 22 de marzo de 2019 Crossing the Line Selection and Evolution of Virulence Traits PLoS Pathogens en ingles 2 5 e42 2006 doi 10 1371 journal ppat 0020042 Challenging the trade off model for the evolution of virulence is virulence management feasible Trends Microbiol en ingles 11 1 15 20 2003 doi 10 1016 S0966 842X 02 00003 3 Virulence evolution in emerging infectious diseases Evolution en ingles 59 7 1406 12 2005 doi 10 1554 05 111 Gandon S 2004 Evolution of multihost parasites Evolution en ingles 58 3 455 69 doi 10 1111 j 0014 3820 2004 tb01669 x Une super bacterie cauchemardesque resiste a tous les antibiotiques L Express 27 mai 2016 Consultado el 24 octobre 2016 Anne Debroise septembre 2016 Menace mondiale sur la sante publique La Recherche Obesite et surpoids who int Organisation mondiale de la sante 2016 Consultado el 24 octobre 2016 Platts Mills TA 2005 Is the hygiene hypothesis still a viable explanation for the increased prevalence of asthma Allergy 60 Suppl 79 25 31 en ingles PMID 15842230 doi 10 1111 j 1398 9995 2005 00854 x P Bernanose 26 mai 2013 Notre intelligence est elle en train de s emousser santelog com Consultado el 24 octobre 2016 Bostrom 2008 ch 13 p 276 a b Rampino M R Ambrose S H 2000 Super eruptions as a threat to civilizations on Earth like planets Icarus en ingles 156 562 569 Bibcode 2002Icar 156 562R doi 10 1006 icar 2001 6808 Kate Ravilious 2005 What a way to go The Guardian en ingles Universite d Oxford 2009 The Toba supereruption toba arch ox ac uk en ingles Archivado desde el original el 3 de octubre de 2016 Consultado el 22 de marzo de 2019 Stanley H Ambrose 1998 Late Pleistocene human population bottlenecks volcanic winter and differentiation of modern humans Journal of Human Evolution en ingles 34 6 623 651 doi 10 1006 jhev 1998 0219 Archivado desde el original el 28 de septiembre de 2010 Consultado el 22 de marzo de 2019 a b Breining Greg 2007 Super Volcano The Ticking Time Bomb Beneath Yellowstone National Park en ingles St Paul MN Voyageur Press p 256 ISBN 978 0 7603 2925 2 Plotnick Roy E 1 janvier 1980 Relationship between biological extinctions and geomagnetic reversals Geology en ingles 8 12 578 Bibcode 1980Geo 8 578P doi 10 1130 0091 7613 1980 8 lt 578 RBBEAG gt 2 0 CO 2 Glassmeier Karl Heinz 29 mai 2010 Magnetic Polarity Transitions and Biospheric Effects Space Science Reviews en ingles 155 1 4 387 410 Bibcode 2010SSRv 155 387G doi 10 1007 s11214 010 9659 6 Pararas Carayannis George 2002 Evaluation of the threat of mega tsunami generation from postulated massive slope failures of island volcanoes on La Palma Canary Islands and on the island of Hawaii en ingles drgeorgepc com Consultado el 20 decembre 2008 La chute d une meteorite a bien ete fatale aux dinosaures Le Monde fr 8 fevrier 2013 Consultado el 22 octobre 2016 a b Bostrom 2002 section 4 10 en ingles Une analyse des effets d impacts cosmiques Archivado el 22 de diciembre de 2016 en Wayback Machine et un simulateur base sur cette analyse developpe a l universite d Arizona Laurent Sacco El apocalipsis en 7 6 billones de anos futura sciences com 28 de febrero de 2008 en ingles Ken Croswell Will Mercury Hit Earth Someday Archivado el 7 de octubre de 2008 en Wayback Machine Skyandtelescope com 24 avril 2008 en ingles Explosions in Space May Have Initiated Ancient Extinction on Earth NASA Anne Minard 3 avril 2009 Gamma Ray Burst Caused Mass Extinction http news nationalgeographic com en ingles National Geographic News Adrian Melott 2011 Astrophysical Ionizing Radiation and the Earth A Brief Review and Census of Intermittent Intense Sources Astrobiology en ingles 11 343 361 Bibcode 2011AsBio 11 343M doi 10 1089 ast 2010 0603 Fraser Cain 04 aout 2003 Local Galactic Dust is on the Rise Universe Today en ingles Bostrom 2002 section 7 2 a b c Matheny Jason Gaverick 2007 Reducing the Risk of Human Extinction Risk Analysis en ingles 27 5 1335 1344 doi 10 1111 j 1539 6924 2007 00960 x Asher D J Bailey M E Emel yanenko V Napier W M 2005 Earth in the cosmic shooting gallery PDF The Observatory en ingles 125 319 322 Bibcode 2005Obs 125 319A a b en ingles David J Asher Victor Clube Bill Napier et Duncan Steel 1994 Coherent Catastrophism Vistas in Astronomy 38 1 1 27 Harvard edu resume en ligne Ambrose 1998 Rampino y Ambrose 2000 p 71 80 a b Robinson Meyer 29 avril 2016 Human Extinction Isn t That Unlikely en ingles The Atlantic Consultado el 30 avril 2016 Global Challenges Foundation website Report for 2016 en ingles globalchallenges org Archivado desde el original el 8 de mayo de 2016 Consultado el 30 avril 2016 a b Milan Cirkovic Anders Sandberg y Nick Bostrom 2010 Anthropic Shadow Observation Selection Effects and Human Extinction Risks Risk Analysis en ingles 30 1495 1506 doi 10 1111 j 1539 6924 2010 01460 x Jones E M 1 mars 1985 Where is everybody An account of Fermi s question en ingles Los Alamos National Laboratory LANL United States Department of Energy Consultado el 12 janvier 2013 Ventrudo Brian 5 juin 2009 So Where Is ET Anyway Universe Today en ingles Consultado el 10 mars 2014 Some believe the Fermi Paradox means advanced extraterrestrial societies are rare or nonexistent Others suggest they must destroy themselves before they move on to the stars Parfit Derek 1984 Reasons and Persons en ingles Oxford University Press pp 453 454 Harrington Damian 21 fevrier 2000 Date set for desert Earth BBC News Online en ingles Weitzman Martin 2009 On modeling and interpreting the economics of catastrophic climate change The Review of Economics and Statistics en ingles 91 1 1 19 doi 10 1162 rest 91 1 1 a b c Eliezer Yudkowsky 2008 Cognitive Biases potentially affecting judgments of global risks intelligence org en ingles MIRI Consultado el 23 octobre 2016 J A Hausman 1993 Measuring natural resource damages with contingent valuation tests of validity and reliability Contingent Valuation A Critical Assessment en ingles Amsterdam North Holland p 91 159 Voir par exemple cette recension de Phillip V Stanley en ingles dans le cadre d un cours sur les mythes grecs de catastrophe et plus generalement Jeanvrin 2009 Sept ans de famine trois mois de guerre ou trois jours de peste Samuel 24 13 Victor Clube y Bill Napier Cosmic Winter El jardin de los libros 2006 en ingles Un contre argument important developpe par un des experts de la NASA en ingles AtKisson A Believing Cassandra An Optimist Looks at a Pessimist s World 2 Earthscan 2 Earthscan 1999 D autres motivations pour ce refus sont exposees dans Confronting the New Misanthropy en ingles un article de Frank Furedi dans Spiked en 2006 Voir cette analyse des speculations alarmistes autour du LHC et en particulier cet article en ingles de Nature Normand Baillargeon 21 fevrier 2012 Vous reprendrez bien un peu de propagande http voir ca Voir Diamond 2006 ch 2 section La foret evanouie Marie Beatrice Baudet 2015 Aurelio Peccei premier resistant a la croissance Le Monde Mark Strauss 2012 Looking Back on the Limits of Growth Simthsonian Magazine en ingles Sophie McBain 25 septembre 2014 Apocalypse soon the scientists preparing for the end of times en ingles New Statesman Consultado el 5 juin 2015 Reducing Long Term Catastrophic Risks from Artificial Intelligence en ingles Machine Intelligence Research Institute Consultado el 5 juin 2015 Angela Chen 11 septembre 2014 Is Artificial Intelligence a Threat en ingles The Chronicle of Higher Education Consultado el 5 juin 2015 About the Lifeboat Foundation en ingles The Lifeboat Foundation Consultado el 26 avril 2013 Ashlee Vance 20 juillet 2010 The Lifeboat Foundation Battling Asteroids Nanobots and A I en ingles New York Times Consultado el 5 juin 2015 The Future of Life Institute en ingles Consultado el 5 mai 2014 Nick Bilton 28 mai 2015 Ava of Ex Machina Is Just Sci Fi for Now en ingles New York Times Consultado el 5 juin 2015 Center for International Security and Cooperation en ingles Center for International Security and Cooperation Consultado el 5 juin 2015 Global Alert and Response GAR en ingles World Health Organization Consultado el 5 juin 2015 Kelley Lee 2013 Historical Dictionary of the World Health Organization en ingles Rowman amp Littlefield p 92 Consultado el 5 juin 2015 USAID Emerging Pandemic Threats Program en ingles USAID Archivado desde el original el 22 octobre 2014 Consultado el 5 juin 2015 Global Security en ingles Lawrence Livermore National Laboratory Consultado el 5 juin 2015 en ingles David Denkenberger et Joshua Pearce 2 Feeding Everyone No Matter What 2 Feeding Everyone No Matter What Elsevier San Francisco 2014 en ingles Denkenberger D C amp Pearce J M 2015 Feeding Everyone Solving the Food Crisis in Event of Global Catastrophes that Kill Crops or Obscure the Sun Futures 72 57 68 open access en ingles Baum S D Denkenberger D C A Pearce J M Robock A Winkler R Resilience to global food supply catastrophes Environment Systems and Decisions 35 2 p 301 313 2015 open access Mankind must abandon earth or face extinction Hawking en ingles physorg com 9 aout 2010 Consultado el 23 janvier 2012 Lewis Smith 27 fevrier 2008 Doomsday vault for world s seeds is opened under Arctic mountain The Times Online en ingles Londres En Norvege la reserve mondiale de graines rattrapee par le rechauffement Liberation 26 mai 2017 Changement climatique le permafrost entourant la Banque mondiale de graines a fondu Courrier international 22 mai 2017 a b Nick Bostrom 2003 Are You Living In a Computer Simulation Philosophical Quarterly 53 243 255 Nick Bostrom 2001 The Doomsday Argument Adam amp Eve UN and Quantum Joe Synthese en ingles 127 3 359 387 doi 10 1023 A 1010350925053 M Tegmark 2005 Is a doomsday catastrophe likely Nature en ingles 438 5875 754 Bibcode 2005Natur 438 754T doi 10 1038 438754a en ingles Steve Fuller Why Superintelligence May Not Help Us Think about Existential Risks or Transhumanism Social Epistemology Review and Reply Collective 3 no 10 2014 47 49 Jeanvrin 2009 Jacques Goimard prefacio a Histoires de catastrophes en la Gran Antologia de la Ciencia Ficcion Lista de predicciones de Todo en Zanzibar 1 en Gentside Las peliculas con las mayores aberraciones cientificas en el sitio senscritique com Bibliografia EditarMeadows Donella 1974 Halte a la croissance ISBN 0 87663 165 0 Le texte integral est en ligne sur le site du Donella Meadows Institute Meadows Donella Randers Jorgen Meadows Dennis 2012 Les Limites a la croissance dans un monde fini Rue de l echiquier ISBN 978 2917770351 mise a jour apres 30 ans Tainter Joseph 2014 L Effondrement des societes complexes en frances Le Retour aux sources ISBN 978 2355120510 Leslie John A 1996 The End of the World en ingles Routledge ISBN 0 415 14043 9 Powell Corey S 2000 Twenty ways the world could end suddenly Discover en ingles Bostrom Nick 2002 Existential Risks Analyzing Human Extinction Scenarios and Related Hazards Journal of Evolution and Technology en ingles 9 1 Bostrom 2002 Rees Martin 2003 Our Final Hour en ingles Basic Books ISBN 0 465 06862 6 Wilson Edward Osborne 2003 The Future of Life en ingles Vintage ISBN 0 679 76811 4 Richard Jean Francois 2003 High Noon en ingles Basic Books ISBN 0 465 07010 8 Posner Richard 2004 Catastrophe Risk and Response en ingles Oxford Oxford University Press ISBN 978 0195306477 Joel Garreau 2005 Radical Evolution en ingles Doubleday ISBN 978 0 385 50965 7 Diamond Jared 2006 Effondrement Comment les societes decident de leur disparition ou de leur survie Gallimard NRF Essais ISBN 2 07 077672 7 Derrick Jensen 2006 Endgame en ingles Seven Stories Press ISBN 1 58322 730 X Bostrom Nick 2008 Global Catastrophic Risks en ingles Oxford University Press Bostrom 2008 lire l introduction en ligne Le numero 22 de la revue Le Portique lire en ligne est entierement consacre a divers aspects de la notion de catastrophe les relations avec les mythes et la science fiction y sont analysees dans Jeanvrin Sebastien 2009 Catastrophe sacre et figures du mal dans la science fiction une fonction cathartique Le Portique 22 Huesemann Michael H 2011 Sustainability or Collapse Techno fix en ingles Douglas amp McIntyre p 464 ISBN 0 86571 704 4 Lafargue Jean Noel 2012 Les Fins du monde Francois Bourin editeur p 312 ISBN 978 2849413456 Paul R Ehrlich Ehrlich Anne H mars 2013 Can a collapse of global civilization be avoided Proc R Soc B en ingles 280 1754 Hicham Stephane Afeissa 2014 La fin du monde et de l humanite en frances Paris Presses universitaires de France p 400 ISBN 978 2 13 062151 5 Paul Jorion mars 2016 Le dernier qui s en va eteint la lumiere Paris Fayard ISBN 978 2 213 69903 5 Cotton Barratt Owen 2016 Global Catastrophic Risks 2016 en ingles Global Challenges Foundation Cotton Barratt 2016 Archivado desde el original el 8 de mayo de 2016 Consultado el 30 avril 2016 Rapport 2016 de la Global Challenges Foundation Enlaces externos EditarExistential Risk org un sitio web sobre los riesgos existenciales mantenido por Nick Bostrom en ingles Cognitive biases potentially affecting judgment of global risks Sesgos cognitivos que pueden afectar el juicio de los riesgos generales un articulo de Eliezer Yudkowsky en ingles Last Days On Earth documental de TV de ABC News 30 de agosto de 2006 en ingles 10 ways the world could end 10 formas en que el mundo podria acabar una conferencia de Stephen Petranek en ingles It is two minutes to midnight Son dos minutos antes de la medianoche manifiesto sobre la situacion global por Bulletin of the Atomic Scientists enero de 2018 en ingles Datos Q1531622 Obtenido de https es wikipedia org w index php title Riesgo de catastrofe planetaria amp oldid 138874665, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos