Продолжая использовать сайт, вы даете свое согласие на работу с этими файлами.
- Développement technologique différentiel
- Risque de catastrophe planétaire
- Liste de prédictions de la fin du monde
- Attaque nucléaire évitée de justesse
Risque de catastrophe planétaire
Un risque de catastrophe planétaire ou de catastrophe globale est un événement futur hypothétique qui aurait le potentiel de dégrader le bien-être de la majeure partie de l'humanité, par exemple en détruisant la civilisation moderne ; cette notion, introduite par divers auteurs à partir de la fin du xxe siècle, a été théorisée et précisée en 2008 par le philosophe Nick Bostrom, lequel avait proposé également dès 2002 d'appeler risque existentiel un événement qui pourrait causer l’extinction de l'humanité.
Parmi les catastrophes planétaires potentielles figurent les changements climatiques, les pandémies et les guerres nucléaires, mais également des risques liés aux nanotechnologies ou à une prise de contrôle par une intelligence artificielle hostile, ainsi que des événements d'origine spatiale tels que des impacts de météorites.
Une étude quantitative rigoureuse de ces risques est difficile, en raison de l'incertitude sur les conséquences finales (les enjeux) de l'aléa déclencheur de la catastrophe, et sur la probabilité de cet aléa, et aussi parce que de nombreux biais cognitifs en compliquent l'analyse ; de plus, un évènement ayant pu provoquer l'extinction de l’humanité ou la destruction complète de la civilisation ne s'étant évidemment encore jamais produit, la probabilité qu'il en advienne un est minimisée ; ce phénomène est connu en statistique sous le nom de biais de sélection.
Bien que les risques de catastrophe planétaire aient fait l'objet de nombreux scénarios de science-fiction (modernisant souvent des mythes très anciens comme celui de Pandore), et de déclarations alarmistes à partir des années 1950, ce n'est qu’au début du XXIe siècle que divers organismes ont commencé à les étudier systématiquement, en particulier sous l'impulsion des mouvements transhumanistes, et plus récemment, de la collapsologie.
Classifications
Risques majeurs
Un risque majeur est un événement incertain dont la réalisation est souvent faiblement probable, mais dont les effets négatifs sont considérables. Les géographes et de nombreux spécialistes après eux découpent cette notion en trois termes : l'aléa, qui est l'événement incertain lui-même, les enjeux, qui sont les valeurs socio-économiques ou écologiques soumises aux effets de l’aléa quand il survient, et la vulnérabilité, qui fixe le degré plus ou moins grand de destruction des enjeux par ces effets. Par exemple, dans le cas du risque d’inondation fluviale, l’aléa est la crue du cours d’eau, les enjeux sont les personnes et les biens exposés à l'inondation, enfin la vulnérabilité se mesure en particulier en tenant compte de la hauteur, de la solidité et de l’étanchéité des immeubles concernés.
Risque de catastrophe planétaire et risque existentiel
Au début des années 1980, la découverte du cratère d'impact de Chixculub et sa mise en relation avec la disparition des dinosaures a amené à considérer sérieusement la possibilité de catastrophes pouvant entraîner des conséquences à l'échelle de la planète entière, et en particulier à analyser dans ces termes les répercussions sur le climat et l'agriculture d'une guerre nucléaire.
À partir des années 1990, des avertissements de plus en plus détaillés (comme le World Scientists' Warning to Humanity de 1992), reprenant parfois des thèses plus anciennes telles que celles du rapport Meadows en 1972, amènent plusieurs auteurs à préciser la définition de risques dépassant les limites de désastres régionaux, et pouvant concerner toute l'humanité.
Dans Catastrophe: Risk and Response, Richard Posner a regroupé en 2004 des évènements apportant « un bouleversement ou une ruine complète » à l’échelle globale (plutôt que locale ou régionale), les considérant comme méritant une attention toute particulière en termes d’analyse coût-avantage, parce qu'ils pourraient, directement ou indirectement, mettre en danger la survie de l’humanité dans son ensemble. Parmi les évènements discutés par Posner, on trouve les impacts cosmiques, l’emballement du réchauffement climatique, la gelée grise, le bioterrorisme, et les accidents dans les accélérateurs de particules.
Indépendamment de ces travaux, le philosophe Nick Bostrom a introduit en 2008 la notion de risque de catastrophe planétaire (anglais : global catastrophic risk), prolongeant son analyse de 2002 dans laquelle il définissait la notion de risque existentiel (anglais : existential risk), et en relation avec une classification des risques selon leur étendue et leur intensité, l’étendue allant de l’échelle individuelle à l’ensemble des générations futures, et l’intensité de « imperceptible » à « maximale » (des exemples sont donnés dans le tableau ci-dessous). Sur cette échelle, il définit un « risque de catastrophe planétaire » comme au moins « global » (affectant la majorité des humains) et d'intensité « majeure » (affectant le bien-être des individus sur une période prolongée) ; un « risque existentiel » est défini comme « transgénérationnel » et « maximal » (irréversible, et mortel à court terme). Ainsi, un risque existentiel détruit l'humanité (voire toutes les formes de vie supérieure) ou au minimum ne laisse aucune chance à la réapparition d’une civilisation, alors qu’une catastrophe planétaire, même si elle tuait la majorité des humains, laisserait une chance de survie et de reconstruction aux autres ; Bostrom considère ainsi les risques existentiels comme beaucoup plus significatifs ; il fait également remarquer que l'humanité n'avait pas pu envisager de risque existentiel avant 1950, et que toutes les stratégies conçues pour diminuer les risques de catastrophe planétaire sont inopérantes face à des menaces d’extinction complète.
Presque par définition, les catastrophes planétaires constituent non seulement des risques majeurs, mais correspondent à une vulnérabilité maximale et à des enjeux si vastes qu’ils sont impossibles à quantifier. Il en résulte une confusion souvent faite entre risque et aléa dans ce cas.
Risque | Imperceptible | Supportable | Majeur | Maximal |
Personnel | Perte d’un cheveu | Perte d’un doigt | Amputation d’une jambe | Mort |
Local | Trafic ralenti | Routes coupées | Destruction des infrastructures |
Séisme de 1755 à Lisbonne |
Global | Réchauffement global de 0,03 °C |
Année sans été |
Destruction complète de la couche d’ozone |
Hiver nucléaire |
Transgénérationnel | Perte d’une espèce de Scarabées |
Disparition des Félins | Extinction de l’Holocène | Fin de l’humanité |
D’après un article de Nick Bostrom sur la prévention des risques existentiels ; sur fond rose, les risques de catastrophe planétaire ; sur fond orange, les risques existentiels. |
Classification en fonction de scénarios
Bostrom identifie quatre types de scénarios de catastrophe planétaire. Les « bangs » sont des catastrophes brutales (accidentelles ou délibérées) ; les exemples les plus vraisemblables étant les guerres nucléaires, l’utilisation agressive (et échappant à tout contrôle) de biotechnologies ou de nanotechnologies, et les impacts cosmiques. Les « écroulements » (crunches) sont des scénarios de dégradation progressive des structures sociales, dans lesquels l’humanité survit, mais la civilisation est irrémédiablement détruite, par exemple par épuisement des ressources naturelles, ou par des pressions dysgéniques abaissant l’intelligence moyenne. Les « hurlements » (shrieks) sont des scénarios d’avenirs dystopiques, tels que des régimes totalitaires utilisant des intelligences artificielles pour contrôler l’espèce humaine. Les « gémissements » (whimpers) sont des déclins graduels des valeurs, puis de la civilisation. Nick Bostrom considère les trois derniers types de scénarios comme empêchant (plus ou moins définitivement) l’humanité de réaliser son potentiel ; Francis Fukuyama estime que cet argument, qui s’appuie sur les valeurs du transhumanisme, ne suffit pas à lui seul à les classer tous comme des risques de catastrophe planétaire.
Sources potentielles de risques
Parmi les risques existentiels, c'est-à-dire les risques d'extinction massive de la biosphère incluant l'espèce humaine, figurent surtout des causes exogènes naturelles, comme :
- la chute d'un astéroïde de grande taille (extinction Crétacé-Paléogène) ;
- une éruption volcanique à grande échelle et sur une longue période (trapps de Sibérie ou du Deccan) ;
- des épisodes d'anoxie océanique globale (extinctions du Dévonien ou de la fin du Paléozoïque) ;
- une glaciation générale touchant l'ensemble de la planète : scénario de la Terre boule de neige (Cryogénien) ;
- l'explosion d'une supernova à faible distance du système solaire ;
- un sursaut gamma orienté vers notre région de la galaxie.
Certains de ces phénomènes se sont produits à de nombreuses reprises dans le passé, mais leur probabilité d'occurrence à l'échelle historique est souvent impossible à évaluer faute de données scientifiques suffisantes (les observations précises n'ont commencé qu'il y a trois siècles).
En revanche, les risques de catastrophe planétaire correspondent le plus souvent à des causes endogènes (dues aux actions humaines) :
- la violence, l'ignorance, le fanatisme, l'imprévoyance, la surexploitation à outrance de toutes les ressources disponibles ;
- l'annihilation nucléaire ;
- un effet dysgénique globalisé ;
- une surpopulation catastrophique de la planète ;
- une pandémie d'origine artificielle, soit accidentelle soit criminelle ;
- le remplacement de l'humanité par l'intelligence artificielle capable d'apprentissage, de choix et d'auto-réplication (éventuellement sous la forme de robots).
Avec le développement des technologies, la destruction, sinon du genre humain, du moins de la civilisation moderne par les actions d'une nation, d'une corporation, d'une communauté religieuse ou autre, ou même d'un individu, est plus probable qu'auparavant d'un point de vue statistique. Il est cependant possible que le développement des techniques de sécurité puisse diminuer ces risques, mais en sacrifiant les droits de l'homme et les libertés démocratiques.
Certains scénarios combinent des causes naturelles et artificielles : un orage magnétique majeur du Soleil ou une inversion du champ magnétique terrestre pourraient bloquer le fonctionnement des appareils et des réseaux électroniques dont l'économie mondiale est devenue totalement dépendante, débouchant sur un krach mondial et sur des conflits de grande envergure. Une pandémie peut avoir des conséquences économiques majeures, amenant à une crise systémique.
Selon le Future of Humanity Institute, les causes anthropiques menacent davantage de provoquer l’extinction de l’humanité que des causes naturelles. De même, le Cambridge Project for Existential Risk (développé en 2012 par le Centre pour l’étude des risques existentiels de l’université de Cambridge) affirme que les « plus grandes menaces » pour l’espèce humaine sont anthropogéniques ; il s’agit, selon lui, du réchauffement global, des guerres nucléaires, de biotechnologies ayant échappé au contrôle, et d’intelligences artificielles hostiles.
Depuis 1947, le Bulletin of the Atomic Scientists analyse les risques de catastrophe planétaire (initialement, ceux liés à un conflit nucléaire), représentant symboliquement leur estimation des risques à l'aide de l’Horloge de la fin du monde. Depuis 1991, cette horloge n'a pas cessé de se rapprocher de minuit ; en particulier, en 2015, elle a été avancée de deux minutes pour refléter le fait que le Bulletin of the Atomic Scientists considère que le réchauffement climatique correspond désormais à un risque de catastrophe planétaire, et peut-être existentiel ; l'expression « existential risk » (risque existentiel) apparait depuis cette date dans tous leurs documents de synthèse, accompagnant l'analyse de nouveaux risques, tel que celui de la désinformation cybernétique en 2020 ; en 2023, l'horloge est au plus près de minuit depuis sa création, en raison entre autres « des lacunes dans la gouvernance mondiale que la gestion de la crise de la Covid-19 a fait apparaître », et des conséquences de la guerre en Ukraine.
Les listes plus détaillées de risques ci-dessous (dont certains sont corrélés entre eux, par exemple une crise systémique affaiblissant les services de santé augmentera les risques de pandémie) sont classées par probabilité estimée décroissante ; cette classification, reprenant les travaux des divers groupes d'étude cités plus loin, ne recoupe pas bien les classifications plus traditionnelles des géographes, lesquelles sont basées en particulier sur la typologie des enjeux (environnementaux, économiques, etc.).
Risques dus à des actions humaines
Risques connus
Réchauffement global
Le réchauffement climatique actuel (qui n’est plus contesté par la communauté scientifique, et dont la plus grande partie est attribuée aux activités industrielles depuis le XIXe siècle), amène à des variations anormales du climat sur toute la Terre, et à des effets secondaires tels que la montée du niveau des océans et leur acidification. Les projections même les plus modérées de ce réchauffement suggèrent qu'il va s’amplifier, augmentant en particulier la fréquence et l’intensité d’évènements climatiques extrêmes (canicules, inondations, tempêtes, etc.) et des catastrophes qui leur sont associées. Parmi ses effets indirects, on mentionne la perte de la biodiversité, les dommages subis par le système actuel de production agricole, la propagation accrue de maladies infectieuses telles que le paludisme, et la mutation rapide de micro-organismes. Pour toutes ces raisons, le Bulletin of the Atomic Scientists considère depuis 2015 que le réchauffement climatique correspond désormais à un risque de catastrophe planétaire, et peut-être existentiel.
Il a même été suggéré que le dépassement d'un certain seuil pourrait amener le climat terrestre à basculer vers un état stable brûlant analogue à celui de Vénus (c'est la thèse de l’emballement climatique) ; même des scénarios moins extrêmes, sans rendre la Terre inhabitable, pourraient causer la fin de la civilisation (un exemple de risque climatique nouveau apparaissant dans certains de ces scénarios est la formation d'hypercyclones). Cependant, l’existence de climats beaucoup plus chauds dans un passé relativement récent, par exemple lors du début de l’Éocène, amène de nombreux spécialistes à contester que ces derniers risques soient réels.
Surpopulation et crises agricoles
Un désastre écologique, tel que des récoltes catastrophiques suivies d’un effondrement des services écosystémiques, pourrait résulter des tendances actuelles à la surpopulation, à la croissance économique sans limites, et au manque d’agriculture durable. La plupart des scénarios de catastrophe mettent en jeu un ou plusieurs des facteurs suivants : l’extinction de l'Holocène, la rareté de l’eau potable (qui pourrait amener à ce qu’environ la moitié de l’humanité ne dispose que d’eau présentant des dangers sanitaires) et le déclin des pollinisateurs, mais aussi la surpêche, la déforestation massive, la désertification, les changements climatiques, ou enfin des épisodes de pollution de l’eau ; beaucoup de ces inquiétudes apparaissaient déjà dans le rapport Meadows de 1972.
Même sans catastrophe soudaine (les « bangs » définis par Nick Bostrom), les déséquilibres entre population et ressources alimentaires risquent d’amener progressivement à des crises majeures, les catastrophes malthusiennes (ce sont des « écroulements » (crunches) pour la même classification). Le XXe siècle a vu une augmentation rapide de la population mondiale due aux progrès de la médecine et à une forte amélioration de la productivité agricole, en particulier venant de la Révolution verte. Ainsi, entre 1950 et 1984, les transformations mondiales de l’agriculture amenèrent à une augmentation de 250 % de la production de céréales. La Révolution verte permit à la production de nourriture de se maintenir au niveau de la croissance démographique, et même de la favoriser. L'énergie demandée pour les travaux agricoles était apportée par les carburants fossiles, que ce soit pour les tracteurs et l’irrigation (aux moteurs consommant des hydrocarbures), ou pour la fabrication d’engrais et de pesticides ; l’arrivée du pic pétrolier pourrait ainsi amener une crise agricole.
Dans une étude intitulée Food, Land, Population and the U.S. Economy (« Nourriture, terre, population, et économie américaine »), David Pimentel (professeur à l’université Cornell) et Mario Giampietro (chercheur au National Research Institute on Food and Nutrition) estiment que la population américaine maximale pour une économie durable ne peut dépasser 200 millions d’habitants ; la même étude affirme que pour éviter le désastre, la population mondiale devrait être réduite des deux tiers ; ils pensent que les conséquences de cette crise agricole devraient apparaître à partir de 2020, et devenir critiques après 2050. Dale Allen Pfeiffer craint que les décennies à venir voient une montée des prix alimentaires suivie de famines massives telles que le monde n’en a encore jamais connues. Ces calculs recoupent ceux de l’ONG américaine Global Footprint Network, qui détermine le jour du dépassement (la date à laquelle la production mondiale annuelle de ressources renouvelables a été entièrement consommée), et constate que, depuis 1971 (année où cela s'est produit pour la première fois), il arrive chaque année plus tôt : en 2019, il a lieu le ; si en 2020, en raison de la pandémie de Covid-19, il n'a eu lieu que le , il revient au dès 2021, et au en 2022.
Désastres environnementaux
Outre les crises mentionnées précédemment, des risques écologiques divers menacent les productions agricoles. Ainsi, le blé, la deuxième céréale produite après le maïs, reste sensible à des infections fongiques. Ug99, une souche de la rouille noire, peut causer une perte complète des récoltes de la plupart des variétés modernes. L’infection se voit propagée par le vent, et aucun traitement n'est connu ; si elle contaminait les grandes régions de production (États-Unis, Europe, Inde, Russie et Chine du Nord), la crise résultante amènerait à une flambée des prix, mais également à des pénuries d’autres produits alimentaires. Comme pour d’autres scénarios de catastrophes, des déplacements massifs de populations ou même des guerres sont à craindre. En revanche, en dépit de débats concernant l’introduction de plantes génétiquement modifiées, les risques que cette introduction provoque une catastrophe écologique globale (par exemple par l’apparition d’insectes résistants à tous les pesticides, ou de mauvaises herbes envahissantes) semblent négligeables.
La plupart des autres catastrophes environnementales envisageables (marées noires, pollutions industrielles et même accidents nucléaires) restent localisées. Cependant, le nuage brun d'Asie pourrait avoir des conséquences climatiques sur tout le globe ; de même, la pollution des océans semble devenir planétaire. En particulier, d’après la Fondation Race for Water, « […] la pollution des océans par les plastiques […] représente la pire catastrophe écologique de l’Histoire. ».
Enfin, les décès dus à la pollution de l’air atteignent un niveau alarmant et provoquent un déficit économique annuel de centaines de milliards de dollars, selon la Banque mondiale. Il n'est cependant pas clair qu’il s'agisse d’une catastrophe planétaire au sens de Nick Bostrom, dans la mesure où de nombreuses régions ont les moyens de lutter localement contre cette pollution.
L'ensemble des menaces décrites dans les sections précédentes, considéré comme une crise globale, a fait l'objet à plusieurs reprises de tentatives d'alerte. Le , la revue BioScience et le journal Le Monde publient un manifeste signé par 15 364 scientifiques de 184 pays : constatant que depuis l'appel « World Scientists' Warning to Humanity » lancé en 1992 par l'Union of Concerned Scientists et plus de 1 700 scientifiques indépendants, dont la majorité des lauréats de prix Nobel de sciences alors en vie, « non seulement l'humanité a échoué à accomplir des progrès suffisants pour résoudre ces défis environnementaux annoncés, mais il est très inquiétant de constater que la plupart d'entre eux se sont considérablement aggravés ». Ils concluent : « Pour éviter une misère généralisée et une perte catastrophique de biodiversité, l'humanité doit adopter une alternative plus durable écologiquement que la pratique qui est la sienne aujourd’hui. Bien que cette recommandation ait été déjà clairement formulée il y a vingt-cinq ans par les plus grands scientifiques du monde, nous n'avons, dans la plupart des domaines, pas entendu leur mise en garde. Il sera bientôt trop tard pour dévier de notre trajectoire vouée à l'échec, car le temps presse » ; en , ce texte est repris par plus de 11 000 scientifiques, insistant sur « le risque de souffrances indicibles en raison de la crise climatique ».
Le , l'IPBES, à la suite de sa réunion à Paris, lance à son tour une alerte majeure concernant la perte de biodiversité, affirmant que « la santé des écosystèmes dont nous dépendons, comme toutes les autres espèces, se dégrade plus vite que jamais » et que « un million d'espèces animales et végétales [...] risquent de disparaître à brève échéance », ce qui représente une sur huit des espèces connues à cette date.
Guerres et destructions massives
Le scénario qui a été le plus étudié est celui d’une guerre nucléaire. Bien que la probabilité annuelle d’une telle guerre est faible, Martin Hellman faisait remarquer en 1985 que si cette probabilité reste constante ou ne diminue pas assez vite, la guerre est inévitable à long terme : il viendra fatalement un jour où la chance de la civilisation s’épuisera. Durant la crise des missiles de Cuba, John Kennedy estimait les chances d’une guerre nucléaire « entre une sur trois et une sur deux » ; à plusieurs reprises, le déclenchement d'un tel conflit (avec ses risques d'escalade incontrôlable) n'a été évité que de justesse, comme en 1962, lorsque Vassili Arkhipov s'opposa à l'envoi d'un missile nucléaire contre un navire américain, ou lors de la fausse alerte nucléaire soviétique de 1983.
En 2020, les États-Unis et la Russie ont un arsenal combiné de 12 100 armes nucléaires et, en tenant compte des autres puissances nucléaires, il y a 13 400 armes nucléaires en existence dans le monde, d’une puissance destructrice totale d’environ 5 000 mégatonnes (Mt), soit 250 000 fois celle de la bombe d’Hiroshima ; bien que cela ne représente qu'une fraction de l'arsenal de la guerre froide et soit en constante diminution depuis celle-ci, ces chiffres expliquent cependant les estimations pessimistes symbolisées par l’Horloge de l’Apocalypse, laquelle a été avancée en 2018 pour refléter l'inquiétude face à « l'incapacité des dirigeants mondiaux à faire face aux menaces imminentes d'une guerre nucléaire », et encore avancée le pour les mêmes raisons, accompagnées d'une inquiétude nouvelle sur la désinformation cybernétique. Les déclarations menaçantes de Vladimir Poutine accompagnant l'invasion de l'Ukraine à partir de amènent de nombreux experts à réévaluer leurs estimations du risque nucléaire à l’échelle régionale, sans d'ailleurs exclure complètement la possibilité d’une escalade incontrôlable ; une nouvelle avancée (à 90 secondes avant minuit) est effectuée le 23 janvier 2023, en raison du développement de la guerre en Ukraine et des risques correspondants.
Le grand public identifiait souvent la guerre nucléaire avec la « fin du monde », mais jusqu’au début des années 1980, les dirigeants et les experts n’envisageaient qu’un faible risque d’extinction complète de l’humanité à la suite d’une telle guerre : dans une célèbre déclaration de 1957, Mao Zedong expliquait qu’il ne craignait pas une guerre nucléaire, à laquelle « de nombreux Chinois survivraient » ; en 1982 encore, Brian Martin estimait qu’un échange de bombes entre les États-Unis et l’URSS pourrait tuer de 400 à 450 millions de personnes directement, et peut-être quelques centaines de millions de personnes supplémentaires en raison des retombées, surtout dans l’hémisphère Nord, soit « guère plus de 10 % de l’humanité ». Cependant, à partir de 1983, des scénarios plus pessimistes, prenant en compte la notion d’hiver nucléaire, amenèrent à craindre, au minimum, une destruction complète de la civilisation dans ce cas, en raison en particulier de l’impossibilité de l’agriculture durant plusieurs années.
Les armes de l’Apocalypse constituent une forme ultime de la notion de dissuasion nucléaire : il s'agit d’armes suicidaires garantissant qu’un agresseur hypothétique périrait avec l’agressé (et avec le reste de l’humanité). Elles sont techniquement réalisables (par exemple sous forme de bombes H gigantesques salées au cobalt), mais le concept a été abandonné au début des années 1960 (essentiellement parce que, par nature, elles constituaient une épée de Damoclès pour leur possesseur), et elles ne font plus partie des risques existentiels sérieusement envisagés.
D’autres types d’armes et de conflits peuvent entraîner des risques de catastrophe planétaire, en particulier l’utilisation d’armes de destruction massive (chimiques et biologiques), mais aussi certaines formes de bioterrorisme (parce que risquant de déclencher des pandémies incontrôlables).
Risques systémiques
Bien que les crises financières, telles que la Grande Dépression, aient souvent par le passé présenté un caractère global, on ne pouvait jusque-là pas parler de risque de catastrophe planétaire au sens strict. Mais l’accélération des communications et l’utilisation massive d’Internet rendent désormais envisageable deux types d’effondrement du système : d’une part une déstabilisation des mécanismes financiers, provoquée par exemple par une amplification des fluctuations boursières échappant à tout contrôle (risque qui a été associé aux transactions à haute fréquence lors du Flash Crash de 2010), ou par une crise de confiance analogue à la crise des subprimes, d’autre part une perte physique d’informations, voire de valeurs, liée à une panne d’Internet. Le premier risque est difficilement mesurable (et en particulier mal assurable) ; en revanche, Internet a été conçu pour résister à la plupart des attaques ou des dysfonctionnements envisageables, et ce n’est qu’au début du XXIe siècle qu’il a été remarqué qu’une éruption solaire suffisamment puissante, telle que celle de 1859 ou celle de , pouvait perturber suffisamment les communications et les appareils électroniques pour « renvoyer la civilisation au XVIIIe siècle » ; cependant, une étude de 2021 conclut que le risque a été surévalué, et ne dépasserait pas le niveau de catastrophes « locales », comparables par exemple à la rupture d'un câble transatlantique.
Plus généralement, la mondialisation et l’interconnexion des divers systèmes fait désormais qu’une crise locale ou ne concernant qu’une seule ressource peut, par effet domino, amener une catastrophe planétaire (il s’agit d’« écroulements » (crunches) au sens de Nick Bostrom). La plus connue des crises de ce genre est l’arrivée du pic pétrolier (et en particulier ses conséquences sur l’agriculture), mais elle est anticipée depuis plusieurs décennies, et ce ne serait que des effets indirects inattendus qui pourraient la transformer en effondrement global. D’autres scénarios de crise systémique de ce type ont été moins étudiés, et pourraient avoir des conséquences difficilement réparables ; on peut ainsi mentionner la « crise de l’eau », laquelle devient planétaire, mais qui pourrait surtout entraîner une guerre entre la Chine, l’Inde et le Pakistan (trois puissances nucléaires) pour le contrôle des ressources hydriques de l’Himalaya, ou encore la pénurie de terres rares, a priori de faible importance, mais pouvant amener des tensions sur la fabrication de produits aussi divers que les ampoules basse consommation, les voitures électriques ou les éoliennes, avec des conséquences non négligeables sur la transition énergétique. Vers 1990, Joseph Tainter a développé des analyses plus générales de ces scénarios ; dans son travail le plus connu, L’Effondrement des sociétés complexes, il étudie l’effondrement de la civilisation maya, de la civilisation anasazi et de l’Empire romain, en termes de théorie des réseaux, d’économie de l’énergie et de théorie de la complexité. Bien que ces crises résultent d’enchaînements de désastres locaux, non inéluctables et auxquels on peut espérer trouver des parades plus ou moins rapides, Victor Clube et Bill Napier ont fait remarquer que des scénarios de catastrophes systémiques brutales (les « bangs ») déclenchées par un accident local sont également possibles, et ne laissent qu’une étroite marge de manœuvre avant de devenir planétaires.
Risques envisageables
Intelligence artificielle
En 1993, Vernor Vinge popularise, sous le nom de singularité technologique, l’idée selon laquelle si l’homme parvient à construire une intelligence artificielle (IA) supérieure à lui, celle-ci pourra à son tour en construire une autre encore supérieure. Cette rétroaction positive aboutirait alors rapidement à une superintelligence inconcevable pour nous. Il remarque que cela pourrait s’avérer dangereux pour les humains. Cette idée donne naissance à un mouvement social, le singularitarisme.
Plus précisément, il a été suggéré que des ordinateurs capables d’apprentissage pourraient devenir rapidement superintelligents et entreprendre des actions non prévues par leur programmation, voire hostiles ; ou encore que des robots pourraient entrer en compétition avec l’humanité. Il est d'ailleurs possible que la première superintelligence apparaissant élimine toutes les autres, étant également capable de manipuler toute intelligence inférieure afin d’atteindre ses objectifs. Nick Bostrom appelle cette question le « problème du contrôle ».
Stephen Hawking, Bill Gates et Elon Musk ont exprimé leurs craintes d’intelligences artificielles se développant au point d’échapper à tout contrôle, Hawking précisant que cela pourrait signifier « la fin de l’humanité ». Des experts participent en 2009 à une conférence organisée par l’Association for the Advancement of Artificial Intelligence afin de discuter la possibilité, pour des ordinateurs et des robots, d’acquérir une sorte d’autonomie, et la menace que cette éventualité pourrait présenter. Outre le fait que certains robots ont acquis diverses formes de semi-autonomie, allant de la recherche de prises pour se recharger au choix de cibles à attaquer, ils font remarquer que certains virus informatiques peuvent activement lutter contre leur élimination, et atteignent « le niveau d’intelligence des blattes ». Ces experts ajoutent que si une apparition de la conscience telle que la dépeint souvent la science-fiction reste peu vraisemblable, d’autres problèmes ou dangers ne sont nullement à exclure. Plus récemment, divers groupes scientifiques notent une accélération des progrès en intelligence artificielle (dont la victoire d'AlphaGo contre Lee Sedol en a été l’un des signes les plus visibles) pouvant amener à de nouvelles inquiétudes. Eliezer Yudkowsky pense que les risques créés par l’intelligence artificielle sont plus imprévisibles que toutes les autres sortes de risques et ajoute que la recherche à ce sujet se voit biaisée par l’anthropomorphisme : les gens basant leur analyse de l’intelligence artificielle sur leur propre intelligence, cela les amène à sous-estimer les possibilités de l’IA. Il sépare d’ailleurs les risques en problèmes techniques (des algorithmes imparfaits ou défectueux empêchant l’IA d’atteindre ses objectifs), et en échecs « philosophiques », bien plus pernicieux et difficiles à contrôler, où les objectifs de l’IA sont en fait nuisibles à l’humanité. Nick Bostrom rejoint cette position en publiant en 2014 Superintelligence : Paths, Dangers, Strategies.
Des craintes plus immédiates ont été exprimées, s'inquiétant de ce que l'utilisation d'intelligences artificielles faibles permettent de créer des fake news et de les propager efficacement sur les réseaux sociaux, amenant par exemple à des manipulations politiques d'envergure ; un avertissement est régulièrement donné chaque année depuis 2020 à ce sujet par le Bulletin of the Atomic Scientists, considérant que « des vagues de mensonges portées par Internet... mettent en danger la démocratie en général, et sabotent les efforts globaux de lutte contre les risques existentiels ». À partir de 2020, des logiciels tels que GPT-3 et DALL-E, permettant de créer des textes et des images difficiles à distinguer de documents authentiques, apparaissent sous des formes accessibles au grand public ; ils sont soumis par leurs créateurs eux-mêmes à de sévères restrictions d'emploi, pour éviter des « effets néfastes potentiels tels que la désinformation, le spam, l'hameçonnage, etc. », mais il n'est pas certain que des produits analogues ne puissent être développés par des groupes d'acteurs moins scrupuleux.
Biotechnologies
Les biotechnologies peuvent créer un risque de catastrophe planétaire en développant des agents infectieux naturels ou artificiels, qui pourraient ensuite se répandre par l’utilisation d’armes biologiques, d’attaques terroristes, ou par accident, provoquant des pandémies.
Une croissance exponentielle est observée dans le secteur des biotechnologies ; Noun et Chyba prédisent que cela amènera à une énorme amélioration de ces techniques dans les décennies à venir. Ils estiment que les risques correspondants de guerre biologique et de bioterrorisme sont plus importants que ceux des armes nucléaires ou chimiques, parce que les agents infectieux sont plus faciles à produire, et que leur production en masse est difficilement contrôlable, les capacités technologiques correspondantes devenant accessibles même à des individus isolés. Jusqu’à présent, les utilisations terroristes des biotechnologies ont été rares, mais il est difficile de savoir si cela est dû à un manque de moyens, ou à un manque de motivation.
Le risque principal attendu dans l’avenir est l’apparition d’agents infectieux génétiquement modifiés ou entièrement artificiels. On estime en effet en général que la virulence des agents infectieux naturels, qui ont coévolué avec leurs hôtes, est limitée par la nécessité que les hôtes survivent assez longtemps pour transmettre l’agent, mais il est possible de modifier génétiquement ces agents (volontairement ou accidentellement) pour changer leur virulence et d’autres caractéristiques. Ainsi, un groupe de chercheurs australiens a involontairement changé les caractéristiques du virus de la variole de la souris en essayant de développer un virus qui stériliserait les rongeurs ; le virus modifié est devenu extrêmement létal même chez des souris vaccinées ou naturellement résistantes. Si elles ne sont pas strictement réglementées, les technologies permettant des manipulations génétiques des caractéristiques des virus risquent de devenir aisément accessibles dans l’avenir.
Noun et Chyba proposent trois catégories de mesures pour réduire les risques de pandémies (naturelles ou artificielles) : régulation ou interdiction de recherches potentiellement dangereuses, amélioration de la veille sanitaire, et développement des moyens de lutte contre la propagation d’épidémies (par exemple en produisant des vaccins plus efficaces, et en les distribuant plus largement).
Nanotechnologies
De nombreuses nanotechnologies sont en développement ou déjà utilisées. La seule qui semble présenter un risque de catastrophe planétaire significatif est l’assemblage moléculaire, une technique qui permettrait de construire des structures complexes à une précision atomique. L’assemblage moléculaire est pour l’instant un concept purement théorique et demandant des avancées importantes en nanotechnologie, mais qui pourrait permettre de produire des objets sophistiqués en grande quantité et à bas coût dans des nano-usines de la taille d’imprimantes 3D (lesquelles sont une version grossière et macroscopique du même concept). Lorsque ces nano-usines pourront elles-mêmes en produire d’autres, la production pourrait être limitée seulement par la quantité de ressources relativement abondantes, comme les matériaux bruts, l’énergie, et les logiciels ; elles pourraient ainsi, entre autres, fabriquer à bas prix des armes sophistiquées, autonomes et durables.
Chris Phoenix classe les risques de catastrophe créés par les nanotechnologies en trois catégories :
- Accélération du développement d’autres technologies, comme l’intelligence artificielle ou les biotechnologies.
- Production en masse d’objets potentiellement dangereux, et créant une dynamique de risque, telle que la course aux armements.
- Création de processus se reproduisant sans frein, avec des effets destructeurs.
Il signale cependant également que les nanotechnologies sont susceptibles de diminuer plusieurs autres risques de catastrophe planétaire.
Plusieurs chercheurs affirment que l’essentiel de ces risques vient du potentiel militaire et de course aux armements. On a suggéré plusieurs raisons pour lesquelles ces techniques pourraient amener à des escalades instables (contrairement par exemple aux armes nucléaires) :
- un grand nombre d’acteurs peuvent être tentés de participer à l’escalade, le coût correspondant étant faible ;
- la fabrication d’armes par cette méthode est peu coûteuse et aisée à camoufler ;
- la difficulté de contrôle des intentions des autres acteurs pousse à s’armer par prudence, et à déclencher des attaques préventives ;
- l’assemblage moléculaire diminue la dépendance envers le commerce international, lequel est un facteur de paix ;
- une guerre d’agression devient économiquement plus intéressante pour l’agresseur, la fabrication d’armes étant bon marché, et les humains moins nécessaires sur le champ de bataille.
L’auto-régulation par tous les acteurs, étatiques ou non, semblant difficile à atteindre, des mesures pour limiter les risques d’armement et de guerre ont été principalement proposées dans le cadre du multilatéralisme. Une infrastructure internationale, peut-être analogue à l’Agence internationale de l’énergie atomique et consacrée spécifiquement aux nanotechnologies, devrait être développée, donnant plus de pouvoir au niveau supranational. Il est également possible d’encourager le développement technologique différentiel, privilégiant les technologies défensives.
D’autres catastrophes planétaires dues aux nanotechnologies sont envisageables. Ainsi, en 1986, dans son livre Engines of Creation, Eric Drexler envisageait la notion de gelée grise, un thème souvent repris par les médias et la science-fiction ; ce scénario met en jeu de petits robots autoréplicatifs qui détruiraient toute la biosphère en l’utilisant comme source d'énergie et de matériaux. Cependant, désormais, les experts du domaine (y compris Drexler) ont discrédité ce scénario ; selon Chris Phoenix, « une gelée grise ne pourrait être que le résultat d’un processus délicat et délibéré, et non un accident ».
Accidents liés à une technologie expérimentale
Les biotechnologies pourraient amener au développement de pandémies incurables, les guerres chimiques conduire à des pollutions irrémédiables, les nanotechnologies produire des gelées grises catastrophiques. Plus généralement, Nick Bostrom a suggéré que chaque nouvelle technologie peut faire apparaître des risques impensables auparavant, et que dans sa poursuite du savoir, l’humanité risquerait même de créer par inadvertance un dispositif susceptible de détruire la Terre, voire le Système solaire, les recherches en physique des particules pouvant créer des conditions exceptionnelles ayant des conséquences catastrophiques. Déjà, certains scientifiques s’inquiétaient de ce que le premier essai nucléaire pourrait embraser l’atmosphère ; plus récemment, des spéculations alarmistes se sont manifestées concernant la production éventuelle de micro-trous noirs, de strangelets ou d’autres états physiques anormaux au Grand collisionneur de hadrons, et envisageant une réaction en chaîne pouvant conduire à un désastre. Ces craintes particulières ne se sont évidemment pas concrétisées, et avaient d’ailleurs déjà été réfutées par le calcul, mais chaque nouvelle avancée technologique peut susciter des craintes analogues.
Risques non anthropiques
Les risques décrits dans cette section correspondent à des aléas indépendants des actions humaines ; la plupart, à l'exception principalement des pandémies, ne sont également guère atténués par des mesures préventives éventuelles. Leur probabilité annuelle, comparée à celle des risques d'origine humaine, est cependant estimée le plus souvent comme étant négligeable (là encore à l'exception des pandémies).
Pandémie
La mortalité due à une pandémie est égale à la virulence de l’agent infectieux, multipliée par le nombre total de personnes infectées. On suppose en général qu’il y a une limite à la virulence des agents infectieux ayant coévolué avec leurs hôtes, parce qu’un agent qui tue trop rapidement son hôte n’aura pas le temps de se propager. Ce modèle simple prédit que s’il n’y a pas de lien entre virulence et mode de transmission, les agents infectieux évolueront vers des formes peu virulentes et à transmission rapide. Cette hypothèse n’est cependant pas toujours vérifiée, et lorsqu’une relation existe entre virulence et transmission, par exemple parce que la décomposition cadavérique libère l’agent infectieux, de hauts niveaux de virulence peuvent alors apparaître, limités seulement par d’autres facteurs tels que les interactions entre les différents hôtes (puces, rats et humains dans le cas de la peste, par exemple) ; de plus, si la pandémie est un phénomène secondaire lié à une zoonose, la virulence chez les humains peut être totale. De nombreuses pandémies historiques ont ainsi eu un effet dévastateur sur des populations importantes, les plus connues étant la peste noire (entre 1347 et 1352) et la grippe espagnole (1918-1919) ; cela implique qu’une pandémie globale pourrait constituer une menace réaliste contre la civilisation.
La veille sanitaire actuelle rend la probabilité d’une telle pandémie assez faible, au moins pour des agents infectieux similaires à ceux connus (et en particulier non modifiés par l’utilisation de biotechnologies). Cependant, la possibilité qu’apparaisse un nouveau pathogène (comme dans le cas des maladies émergentes), ou qu’une mutation rende beaucoup plus virulent un virus tel que celui de la grippe, n’est jamais à exclure ; un affaiblissement des services de santé lié par exemple à une crise économique pourrait également rendre ce risque de catastrophe planétaire beaucoup plus important. Inversement, les mesures de confinement prise lors de la pandémie de Covid-19 pourraient avoir des conséquences économiques majeures ; la transformation de cette crise en catastrophe planétaire n'est pas exclue par certains collapsologues.
Sans qu’il s’agisse directement de pandémies, l’apparition de « super-bactéries » résistant à tous les antibiotiques fait peser de nouvelles menaces de crises sanitaires. D’autre part, des maladies telles que l’obésité ou les allergies, bien que non contagieuses, sont décrites métaphoriquement comme des pandémies ; si elles s’étendaient, elles pourraient finir par exercer d’importantes pressions dysgéniques à l’échelle mondiale.
Changements climatiques
Un changement climatique est une modification durable des climats de l’ensemble du globe. Dans un passé relativement récent (à l’échelle géologique), la Terre a connu des climats allant de périodes glaciaires à des épisodes si chauds que des palmiers poussaient en Antarctique. On suppose de plus que des épisodes dits de Terre boule de neige, où tous les océans étaient recouverts de glace, ont eu lieu dans un passé beaucoup plus reculé. Des changements climatiques soudains (en quelques décennies) ont eu lieu à une échelle régionale, par exemple durant le petit âge glaciaire, ou lors de l’optimum climatique médiéval, mais les changements climatiques globaux se sont produits lentement, du moins depuis le début du Cénozoïque, et le climat est devenu plus stable encore depuis la fin de la dernière période glaciaire il y a dix mille ans. La civilisation (et en particulier l’agriculture) s’étant développée durant une période de climats stables, une variation naturelle vers un nouveau régime climatique (plus chaud ou plus froid) pourrait constituer un risque de catastrophe planétaire.
La période actuelle (l’Holocène) est considérée comme un épisode interglaciaire au milieu d’une oscillation assez régulière entre glaciations et déglaciations, d’une période d’environ 50 000 ans, que l’on explique par la théorie astronomique des paléoclimats. Une nouvelle glaciation constituerait certainement une catastrophe planétaire au sens de Bostrom, mais outre que le modèle n’en prédit pas pour les quelques millénaires à venir, l’intervention du réchauffement climatique modifiera probablement l’évolution des climats, pouvant même amener à l’apparition de régimes très différents de ceux que la Terre a connu dans le passé.
Volcanisme
L’éruption d’un supervolcan peut amener à un hiver volcanique semblable à un hiver nucléaire, lié à une importante pollution (soufre, cendres et gaz carbonique). Un évènement de ce type, l’éruption de Toba, s’est produit en Indonésie il y a environ 71 500 ans ; selon la théorie de la catastrophe de Toba, cette éruption aurait pu réduire les populations humaines à quelques dizaines de milliers d’individus.
La caldeira de Yellowstone est un autre de ces supervolcans, ayant connu plus d’une centaine d’éruptions formatrices de caldeiras au cours des derniers 17 millions d’années, dont une douzaine de « superéruptions ». Lors de la dernière de ces éruptions, il y a 640 000 ans, les cendres éjectées recouvrent tous les États-Unis à l’ouest du Mississippi, ainsi que le nord-ouest du Mexique.
Ce type d’éruption entraine d’importantes conséquences sur le climat global, pouvant aller jusqu’à déclencher une glaciation si le soleil reste caché suffisamment longtemps par les cendres, ou au contraire un réchauffement climatique si ce sont les gaz à effet de serre qui l’emportent. À une plus petite échelle, cela s’est produit en 1816 après l’éruption du Tambora, avec pour conséquence une « année sans été ».
Bien que ne relevant pas du même mécanisme, les éruptions ayant donné naissance aux provinces magmatiques s'accompagnent sans doute (durant des dizaines voire des centaines de milliers d'années) d'émissions de gaz et de poussières en quantité comparable à celle des supervolcans. Elles demeurent beaucoup plus rares (la plus récente, celle du groupe basaltique du Columbia, ayant eu lieu il y a environ quinze millions d’années), et sont généralement considérées comme responsables des plus importantes des extinctions de masse, l’extinction Permien-Trias étant par exemple corrélée à la formation des trapps de Sibérie. Il s’agit là clairement d’un risque existentiel, mais dont nous serions probablement prévenus des millénaires à l’avance.
Autres risques géologiques
Le champ magnétique terrestre s’est inversé de nombreuses fois durant son histoire, laissant en particulier des traces dans les roches du fond océanique, permettant de dater ces inversions. Elles sont actuellement peu fréquentes, la dernière ayant lieu il y a 780 000 ans. Au moment de la transition, le champ s’affaiblit considérablement, permettant aux radiations (vent solaire, éruptions solaires, rayons cosmiques) d’atteindre le sol, mettant en danger la civilisation par augmentation des cancers, des mutations, etc. Ces théories restent cependant actuellement partiellement discréditées, l’analyse statistique ne montrant pas de corrélation entre ces inversions et des extinctions de masse.
Un autre risque de catastrophe planétaire est un mégatsunami, vague géante qui pourrait être causée par exemple par l’effondrement d’une ile volcanique. La probabilité de ce genre d’évènement a été fortement exagérée par les médias et ces scénarios ne correspondent qu’à des catastrophes régionales. Cependant, un impact cosmique se produisant dans l’océan (tel que celui correspondant à l’extinction des dinosaures) pourrait provoquer un mégatsunami balayant des continents entiers.
Impact cosmique
Plusieurs astéroïdes sont entrés en collision avec la Terre au cours de son histoire. L’astéroïde de Chicxulub, par exemple, est la cause la plus probable de l'extinction des dinosaures non-aviens il y a 66 millions d’années, à la fin du Crétacé. Un objet de plus d’un kilomètre de diamètre frappant la Terre détruirait probablement la civilisation, et à partir de trois kilomètres, aurait de bonnes chances de provoquer l’extinction de l’humanité ; on estime que ces impacts se produisent en moyenne une fois par 500 000 ans (les impacts de gros objets, dépassant les 10 kilomètres, étant à peu près 100 fois moins fréquents). Le scénario d’une collision combine plusieurs des catastrophes planétaires vues précédemment : hiver d’impact, déclenchement d’éruptions volcaniques et mégatsunami (si l’impact a lieu dans l’océan), mais aussi séismes, tempêtes de feu, etc..
Autres menaces cosmiques
En dehors des impacts d’astéroïdes, et peut-être d’éruptions solaires exceptionnelles, les autres menaces identifiables correspondent typiquement à des scénarios à très longue échéance, ou de plausibilité très faible ; il n’est au demeurant pas envisageable dans un avenir prévisible de s’en protéger. Ainsi, le Soleil passera inéluctablement par une phase d’expansion (le transformant en géante rouge englobant peut-être l’orbite terrestre) dans environ 7 milliards d'années ; de même, des simulations des mouvements planétaires à long terme montrent qu’une collision entre Mercure et la Terre (un risque existentiel pour toute forme de vie) a une probabilité non négligeable de se produire d’ici quelques milliards d’années.
De nombreux évènements très énergétiques, tels que les sursauts gamma, les supernovas et les hypernovas, constitueraient des risques existentiels s'ils se produisaient à moins de quelques centaines d'années-lumière de la Terre (une hypernova pourrait être la cause de l’extinction de l’Ordovicien-Silurien). Cependant, la probabilité d’une telle occurrence est estimée comme très faible.
D’autres risques, tels que le passage du système solaire à travers une nébuleuse obscure ou un nuage de poussière cosmique (qui pourrait amener d’importants changements climatiques), ou l'approche d'une autre étoile à moins d'une année-lumière du Soleil, sont eux aussi estimés comme négligeables à l’échelle des prochains millénaires.
Vie extraterrestre
Depuis La Guerre des mondes, la vie extraterrestre et ses interactions avec l’espèce humaine sont des thèmes récurrents de la science-fiction. Cependant, bien que des scientifiques tels que Carl Sagan estiment que son existence (mais pas nécessairement l’existence d’une intelligence extra-terrestre) est très probable, les distances interstellaires sont telles qu'une interaction avec l'humanité semble peu vraisemblable. Le seul risque qui peut être raisonnablement envisagé est celui d’une contamination accidentelle (par exemple par des bactéries martiennes), et même ce scénario est considéré comme très peu réaliste.
Estimation de la vraisemblance du risque
Certains aléas ne dépendant pas des actions humaines ont une probabilité qu’on peut envisager de calculer avec précision. Ainsi, la probabilité que l’Humanité disparaisse au cours du prochain siècle en raison d’un impact cosmique serait d’une chance sur un million (même si certains scientifiques affirment que le risque pourrait être beaucoup plus grand). De même, la fréquence d’éruptions volcaniques d’ampleur suffisante pour créer une catastrophe climatique, analogue à celle ayant résulté de l’explosion de Toba (qui aurait peut-être provoqué la quasi-extinction de l’humanité) a été estimée d’une par 50 000 ans.
Le danger relatif que posent d’autres menaces est beaucoup plus difficile à estimer. En 2008, à la conférence sur les risques de catastrophe planétaire organisée à l’Université d’Oxford, un groupe d’experts réputés regroupant leurs compétences sur différents types de risques a suggéré une probabilité de 19 % de l’extinction de l’espèce humaine durant le prochain siècle (cependant, le compte-rendu de la conférence avertit que la méthode utilisée pour synthétiser les réponses données ne prend pas correctement en compte l’absence de réponse à certaines questions). Le rapport annuel pour 2016 de la Global Challenges Foundation fait remarquer que même les estimations les plus optimistes impliquent que l’Américain moyen risque cinq fois plus de mourir dans une catastrophe planétaire que dans un accident de voiture.
Aléa Probabilité estimée d’une extinction de l’humanité avant 2100
Probabilité totale 19 % Armes utilisant les nanotechnologies 5 % Intelligence artificielle hostile 5 % Guerres non nucléaires 4 % Pandémie résultant de manipulations biologiques 2 % Guerre nucléaires 1 % Accident lié aux nanotechnologies 0,5 % Pandémie naturelle 0,05 % Terrorisme nucléaire 0,03 %
- Source : Future of Humanity Institute, 2008.
L’estimation précise de ces risques présente de considérables difficultés méthodologiques. L’attention a surtout été donnée à des risques portant sur les cent prochaines années, mais des prévisions sur un tel laps de temps sont difficiles : si les menaces posées par la nature sont relativement constantes (quoique de nouveaux risques peuvent être découverts), les menaces anthropogéniques sont susceptibles de changer dramatiquement avec le développement de nouvelles technologies. La capacité des experts à prédire l’avenir sur de telles échelles de temps s’est par le passé révélée assez limitée. De plus, outre les aspects technologiques de ces nouvelles menaces, l’analyse de leur impact sur la société et de la capacité qu’elle a à s’en défendre est limitée par les difficultés méthodologiques des sciences humaines, et par la vitesse avec laquelle les relations internationales peuvent changer.
Les risques existentiels posent d’autres problèmes d’estimation, en raison d’un biais de sélection majeur, le principe anthropique. Contrairement à la plupart des autres catastrophes, le fait qu’une extinction massive concernant l’humanité ne se soit jamais produite dans le passé ne donne aucune information sur la probabilité d’un tel évènement dans l’avenir, parce que, par définition, une extinction ne laisse pas d’observateurs (humains), et donc, même si des catastrophes constituant des risques existentiels étaient très probables, le fait que l’humanité ait survécu signifierait seulement qu’elle a eu énormément de chance. Il reste cependant possible pour estimer ces risques de se servir d’évènements analogues ayant laissé des traces, comme les cinq grands épisodes d’extinction ayant précédé l’apparition de l’Homme ; il est parfois aussi possible de calculer les effets de telle ou telle catastrophe technologique, par exemple d’un hiver nucléaire.
Paradoxe de Fermi
En 1950, le physicien italien Enrico Fermi se demanda pourquoi l’humanité n’avait pas encore rencontré de civilisations extra-terrestres. Comme il le demandait, « où est tout le monde ? ». Étant donné l’âge de l’Univers et son grand nombre d’étoiles, la vie extraterrestre devrait être banale, à moins que la Terre soit très atypique. C’est cette bizarrerie qui est connue sous le nom de paradoxe de Fermi.
Bien qu’elle ne soit pas majoritairement acceptée, une explication proposée du paradoxe est la notion de risque existentiel, et plus précisément, l’idée que des civilisations que nous aurions pu observer (ou qui auraient pu nous rendre visite) ont été détruites avant que l’humanité apparaisse.
Importance économique et éthique des risques existentiels
La réduction des risques existentiels bénéficie surtout aux générations futures ; en fonction de l’estimation de leur nombre, on peut considérer qu’une diminution même légère du risque a une grande valeur morale. Derek Parfit affirme ainsi que nos descendants pourraient potentiellement survivre encore cinq milliards d’années, jusqu’à ce que l’expansion du Soleil rende la Terre inhabitable ; Nick Bostrom pense même que la colonisation de l’espace permettrait à un nombre astronomique de personnes de survivre durant des centaines de milliards d’années ; c’est la comparaison entre la population actuelle et cet énorme nombre de descendants potentiels détruits par l’extinction qui justifie « moralement » qu’on fasse tout pour réduire les risques.
Ces positions n’ont pas été vraiment contestées, bien que d’un point de vue économique, il faille prendre en compte le fait que la valeur d’un bien actuel est plus importante que la valeur du même bien s’il ne doit être touché que dans l’avenir ; le modèle le plus couramment utilisé, celui de l’actualisation exponentielle, pourrait rendre ces bénéfices futurs bien moins significatifs. Cependant, Jason Gaverick Matheny a affirmé que ce modèle n’est pas pertinent pour déterminer la valeur de la réduction de risques existentiels.
Certains économistes ont essayé d’estimer l’importance des risques de catastrophe planétaire (mais pas des risques existentiels). Martin Weitzman prétend que l’espérance (au sens statistique) du coût économique résultant de changements climatiques est importante en raison de situations auxquelles les modèles affectent une faible probabilité, mais qui provoqueraient des dommages catastrophiques. Plus généralement, Richard Posner pense que nous faisons bien trop peu, le plus souvent, pour pallier les risques de catastrophes planétaires lorsque ceux-ci sont faibles et difficiles à estimer.
Outre les biais cognitifs analysés dans la section suivante, il y a aussi des raisons économiques expliquant pourquoi peu d’efforts sont faits pour réduire les risques existentiels, et même certains risques de catastrophe planétaire non irréparable : ces risques concernent un bien global, c´est-à-dire que même si une grande puissance les réduit, elle ne profitera que d’une petite partie du bénéfice correspondant ; de plus la majorité de ces bénéfices seront perçus par les générations futures, lesquelles n’ont évidemment aucun moyen de payer une assurance contre ces risques aux générations actuelles.
Perception des risques
Selon Eliezer Yudkowsky, de nombreux biais cognitifs peuvent influencer la façon dont les individus et les groupes estiment l’importance des risques de catastrophe globale, biais parmi lesquels figurent l’insensibilité à l’étendue, l’heuristique de disponibilité, l'erreur de conjonction, l’heuristique d’affect, et l’effet d’excès de confiance. Ainsi, l’insensibilité à l’étendue amène les gens à être souvent plus concernés par les menaces individuelles qu’à celles s’adressant à des groupes plus vastes (c’est pourquoi leurs dons pour des causes altruistes ne sont pas proportionnels à l’ampleur du problème) ; cela fait qu’ils ne considèrent pas l’extinction de l’humanité comme un problème aussi grave qu’il devrait l’être. De même, l'erreur de conjonction les amène à minimiser les catastrophes qui n’ont que peu de rapport avec celles dont ils ont eu connaissance, et à supposer que les dommages qu’elles causeront ne seront pas beaucoup plus graves.
Il a été souvent remarqué que la majorité des risques anthropogéniques mentionnés précédemment correspondent à des mythes souvent très anciens, ceux de Prométhée, de Pandore et, plus récemment, celui de l’apprenti sorcier étant les plus représentatifs. La symbolique des quatre Cavaliers de l’Apocalypse, les trois derniers représentant la Guerre, la Famine et la Peste, se trouve déjà dans l’Ancien Testament sous la forme du choix inconfortable offert par Dieu au roi David. Les divers risques de révolte des machines apparaissent dans le mythe du Golem, et, combinés aux biotechnologies, dans l’histoire du monstre de Frankenstein. D’autre part, il a été suggéré que les récits de catastrophes de diverses traditions religieuses (où elles sont le plus souvent liées au courroux des divinités) correspondraient à des souvenirs de catastrophes réelles (par exemple le Déluge serait lié à la reconnexion de la mer de Marmara avec la mer Noire) ; sous le nom de catastrophisme cohérent (coherent catastrophism), Victor Clube et Bill Napier ont développé l’hypothèse selon laquelle des pluies de météorites cataclysmiques auraient donné naissance à de nombreux mythes cosmogoniques, allant de l’histoire de la destruction de Sodome et Gomorrhe (thèse défendue également par Marie-Agnès Courty) aux descriptions de l’Apocalypse ; leurs idées sont cependant mal acceptées par la communauté scientifique.
L’existence de ces interprétations « mythiques », ainsi que de nombreuses prophéties de fin du monde, facilite un phénomène de refus partiel ou total de prise en compte de ces risques de catastrophe, connu sous le nom de syndrome de Cassandre : tandis que les risques anthropogéniques sont minimisés en les attribuant à des peurs irrationnelles, les catastrophes décrites dans les mythes sont jugées exagérées par l’ignorance et la déformation des souvenirs.
L’analyse des risques causés par l’Homme souffre d’ailleurs de deux biais opposés : les lanceurs d’alerte tendent à exagérer le risque pour se faire entendre, voire à dénoncer des risques imaginaires au nom du principe de précaution ; de puissants intérêts économiques essaient à l’inverse de minimiser les risques liés à leurs activités, comme le montre par exemple l’affaire de l’institut Heartland, et plus généralement l’analyse des stratégies de désinformation exposée dans Les Marchands de doute.
Donnant une interprétation rationnelle au mythe de l’âge d’or, Jared Diamond fait enfin remarquer que certaines catastrophes, les « écroulements » (crunches) de Nick Bostrom, peuvent passer inaperçues des sociétés qui les subissent, faute d’une mémoire historique suffisante ; c’est par exemple ainsi qu’il explique le désastre écologique subi par les habitants de l’île de Pâques.
Organisations d'évaluation des risques
Le Bulletin of the Atomic Scientists est un des plus vieux organismes se préoccupant de risques globaux ; il fut fondé en 1945 après que le bombardement d’Hiroshima a fait prendre conscience par le grand public des dangers de l’arme atomique. Il étudie les risques associés aux technologies et aux armes nucléaires, et est célèbre pour sa gestion de l’Horloge de la fin du monde depuis 1947.
En 1972, les travaux du Club de Rome ont donné lieu à un célèbre rapport, Halte à la croissance ?, mettant en garde contre les risques d’épuisement des ressources naturelles et de catastrophes écologiques avant la fin du XXIe siècle. Paru en plein milieu des Trente Glorieuses, le rapport est fortement contesté dès sa parution pour son pessimisme, mais ses hypothèses sont plutôt considérées comme optimistes quarante ans après sa parution par le Club : l'épuisement arriverait en fait avant la moitié du XXIe siècle.
Depuis le début des années 2000, un nombre croissant de scientifiques, de philosophes et de milliardaires des nouvelles technologies ont créé des organisations indépendantes ou liées aux milieux académiques, consacrées à l’analyse des risques de catastrophe planétaire.
Parmi les organisations non gouvernementales (ONG) de ce type, on trouve le Machine Intelligence Research Institute (créé en 2000), qui a pour but de réduire les risques de catastrophe liés à l’intelligence artificielle et à la singularité technologique, et dont Peter Thiel est un des principaux donateurs. Plus récemment, la Lifeboat Foundation (créée en 2006) subventionne des recherches de prévention d’une catastrophe technologique, la plupart des fonds allant à des projets universitaires ; le Future of Life Institute a été créé en 2014 pour « rechercher des moyens de sauvegarder l'humanité face aux nouveaux défis technologiques », Elon Musk en est un des plus importants donateurs.
Parmi les organisations dépendant d’universités figurent le Future of Humanity Institute, fondé en 2005 par Nick Bostrom à l’université d'Oxford pour effectuer des recherches sur l’avenir à long terme de l’humanité et les risques existentiels, le Centre pour l'étude des risques existentiels, fondé en 2012 à l’université de Cambridge (et dont Stephen Hawking est consultant) pour étudier quatre risques anthropogéniques : l’intelligence artificielle, les biotechnologies, le réchauffement climatique et les risques de guerre ; ou encore, à l’université Stanford, le Center for International Security and Cooperation, étudiant les politiques de coopération permettant de réduire les risques de catastrophe planétaire.
Enfin, d’autres groupes d’évaluation des risques appartiennent à des organisations gouvernementales. Ainsi, l’Organisation mondiale de la santé (OMS) possède un département appelé Alerte et Réponse Globale (GAR) chargé de la coordination entre États membres en cas de pandémie ; l'Agence des États-Unis pour le développement international (USAID) possède un programme analogue. Le Laboratoire national Lawrence Livermore a une division, le Global Security Principal Directorate (Directoire principal de la sécurité globale) chargé d’étudier pour le compte du gouvernement des questions telles que la bio-sécurité, le contre-terrorisme, etc.
Précautions et prévention
La notion de gouvernance globale respectant les limites planétaires a été proposée comme une approche de prévention des risques de catastrophe écologique. En particulier, le domaine de la géo-ingénierie envisage de manipuler l’environnement à l’échelle du globe pour combattre les changements anthropogéniques de la composition atmosphérique. Des techniques globales de stockage et de conservation des aliments ont été envisagées, mais leur coût serait élevé, et de plus elles pourraient aggraver les conséquences de la malnutrition. David Denkenberger et Joshua Pearce ont suggéré d'utiliser diverses nourritures alternatives pour diminuer les risques de famine liés à des catastrophes planétaires telles qu’un hiver nucléaire ou un changement climatique soudain, par exemple de convertir la biomasse (les arbres et le bois) en produits comestibles ; cependant, il faudra beaucoup d’avancées dans ce domaine pour que ces méthodes permettent à une fraction importante de la population de survivre. D’autres suggestions de diminution des risques, telles que les stratégies de déviation des astéroïdes pour parer aux risques d’impact, ou le désarmement nucléaire, s’avèrent économiquement ou politiquement difficiles à mettre en œuvre. Enfin, la colonisation de l’espace est une autre proposition faite pour augmenter les chances de survie face à un risque existentiel, mais des solutions de ce type, inaccessibles actuellement, demanderont sans doute entre autres le recours à l’ingénierie à grande échelle.
Parmi les précautions effectivement prises individuellement ou collectivement, on peut citer :
- La constitution de réserves de nourriture (prévues pour plusieurs années) et d’autres ressources faites par des survivalistes dans le cadre, par exemple, de construction d’abris antiatomiques.
- La Réserve mondiale de semences du Svalbard, une chambre forte souterraine sur l’île norvégienne du Spitzberg destinée à conserver dans un lieu sécurisé des graines de toutes les cultures vivrières de la planète et ainsi de préserver la diversité génétique ; certaines de ces semences devraient se conserver plusieurs milliers d’années. En , la chambre forte a été inondée, le pergélisol ayant fondu sous l’effet du réchauffement climatique, sans pour autant endommager les réserves de graines.
- La construction de la Grande muraille verte, un exemple de coopération internationale de lutte contre le changement climatique et la désertification ; ce projet de l'Union africaine devrait occuper un couloir de 15 km de large s'étendant sur 7 800 km au sud du Sahara. Cependant, un rapport commandé par la Convention des Nations unies sur la lutte contre la désertification et publié le constate que seuls quatre millions d'hectares sur un objectif de cent ont été plantés en quinze ans, et que seuls le Sénégal et l'Éthiopie ont vraiment donné de l'importance au projet.
Analyses et critiques
L'importance des risques détaillés dans les sections précédentes est rarement niée, même si les risques dus à l’homme sont souvent minimisés ; cependant, les analyses de Nick Bostrom et d'autres auteurs transhumanistes ont été critiquées de plusieurs points de vue distincts.
Critiques techniques
Plusieurs des risques mentionnés par Nick Bostrom dans ses ouvrages sont jugés exagérés (voire imaginaires), ou correspondent à des échelles de temps si vastes qu’il semble un peu absurde de les regrouper avec des menaces presque immédiates. D’ailleurs, les calculs de probabilité, d’espérance ou d’utilité sont difficiles ou mal définis pour ce genre de situation, comme le montrent par exemple des paradoxes tels que l’argument de l’Apocalypse, et comme Nick Bostrom le reconnaît lui-même. En particulier, il a développé un argument éthique affirmant que le nombre exorbitant de nos descendants voués au néant par une catastrophe existentielle justifie qu’on emploie tous les moyens imaginables pour diminuer, si peu que ce soit, la probabilité de cet accident ; cependant, les calculs sur lesquels il s’appuie ont été contestés et cet argument pourrait bien n’être qu’un sophisme.
Nick Bostrom et Max Tegmark ont publié en 2005 une analyse d’un risque d’instabilité de l’univers entier. Indépendamment de la validité de leurs calculs (tendant à montrer que le risque est très faible), on peut se demander s'il y a réellement un sens à parler d’une catastrophe dont nul ne serait averti, et qui ne laisserait aucun observateur ; lors d’une discussion analogue sur le risque d’une réaction en chaîne embrasant toute l’atmosphère, un ami avait répondu aux angoisses de Richard Hamming par « Ne t’inquiète pas, Hamming, il ne restera personne pour te blâmer ».
Positions philosophiques
Les analyses de Nick Bostrom s’appuient sur le transhumanisme, une idéologie prônant l’usage des sciences et des techniques afin d’améliorer les caractéristiques physiques et mentales des êtres humains ; il considère ainsi que tout ce qui pourrait empêcher l’humanité de développer pleinement son potentiel est un risque existentiel ; estimant par exemple que seule la conquête de l'espace interstellaire peut mettre l'humanité à l'abri des dangers cosmiques prévisibles à l'échelle des centaines de millions d'années, il met parmi les risques existentiels la disparition du potentiel technologique nécessaire à cette colonisation.
Cette position a été sévèrement critiquée, entre autres parce qu’elle amène à nier des valeurs auxquelles l’humanité actuelle est attachée, au nom de valeurs futures hypothétiques. Steve Fuller remarque en particulier que si une catastrophe planétaire ne détruit pas toute l’humanité, les survivants pourront légitimement estimer dans certains cas que leur situation s’est améliorée.
Dans la fiction
Littérature
Des scénarios de catastrophe planétaire sont en germe dans les plus anciens mythes répertoriés : déluge engloutissant tous les êtres vivants dans l’Épopée de Gilgamesh, destruction par la glace, l’eau ou le feu dans le mythe nordique du Ragnarök, liste des dix plaies d'Égypte, etc.. Mais aucun de ces récits, ni de ceux proposés par la science-fiction jusque vers 1950, ne se soucie de vraisemblance scientifique ou sociologique ; les descriptions de dystopies (correspondant aux « hurlements » (shrieks) de Nick Bostrom), à l’exception notable de 1984, se préoccupent également fort peu de la cohérence et de la viabilité des systèmes qu'elles proposent en repoussoir.
Après Hiroshima, une abondante littérature post-apocalyptique se développe, comportant d’ailleurs des œuvres non rangées dans le champ de la science-fiction, comme Malevil, mais la plupart de ces romans se concentrent sur la question de la survie, et non sur les causes de la catastrophe (presque toujours nucléaire) ; en 1985, Jacques Goimard expliquera la popularité de ces récits par le « désir d’effondrement ».
Au début des années 1970 apparaissent des descriptions de catastrophes environnementales visant au réalisme. Ainsi, John Brunner publie Tous à Zanzibar (1968) et Le Troupeau aveugle (1972), dénonçant respectivement les dangers de la surpopulation et de la pollution, et se voulant scientifiquement irréprochables ; il s’appuie sur une documentation très à jour, reflétant les analyses des premiers mouvements écologistes, et s’avère même étonnamment précis dans ses prédictions.
Des romans décrivant des catastrophes dues aux nouvelles technologies (intelligence artificielle, biotechnologies, nanotechnologies, etc.) n’apparaissent pas avant 1990, et restent marginaux ; bien plus nombreux sont ceux se préoccupant, comme dans les romans de Iain Banks sur la Culture, de la façon dont les humains pourraient s’adapter à ces technologies, dans des univers inspirés des idées transhumanistes.
Cinéma
Les catastrophes ont constitué un sujet de choix depuis les débuts de l’histoire du cinéma (avec par exemple en 1927 Metropolis, considéré comme le premier film dystopique), mais la difficulté de la réalisation d'effets spéciaux convaincants fait que les réalisateurs se sont plutôt attachés à la description d’un monde dévasté, comme dans la série des Mad Max.
À partir des années 1990, les énormes progrès des effets spéciaux numériques donnent au film catastrophe un nouveau souffle : Independence Day relatant une invasion extra-terrestre, Volcano l’irruption d’un volcan en pleine ville, ou encore Armageddon décrivant la destruction d’un astéroïde menaçant l’impact ; on peut aussi citer les films de la série Terminator et ceux de la série Matrix, illustrant la « révolte des machines ». En 2004, Le Jour d’après de Roland Emmerich décrit un changement climatique brutal. Cependant, tous ces films ont été gravement critiqués pour leur absence de réalisme ou de vraisemblance.
Plus récemment encore, d’autres types de catastrophes planétaires, en particulier les pandémies, ont fait l’objet de films demandant moins d'effets spéciaux et au demeurant plus réalistes, le film le plus célèbre de ce type étant Contagion.
- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Global catastrophic risk » (voir la liste des auteurs).
Notes
Références
Annexes
Bibliographie
-
Donella Meadows, Halte à la croissance ? : Rapport sur les limites de la croissance, (ISBN 0-87663-165-0, lire en ligne [PDF]) (Le texte intégral est en ligne sur le site du Donella Meadows Institute.)
- Donella Meadows, Jorgen Randers et Dennis Meadows (trad. de l'anglais par Agnès El Kaïm), Les limites à la croissance (dans un monde fini) [« Limits to Growth. The 30-Year Update »], Rue de l'échiquier, (1re éd. 2004, Chelsea Green Publishing) (ISBN 978-2917770351, présentation en ligne) : mise à jour après 30 ans.
- Joseph Tainter (trad. de l'anglais par Jean-François Goulon), L’Effondrement des sociétés complexes [« The Collapse of Complex Societies »], Aube/Paris, Le Retour aux sources, (1re éd. 1990, Cambridge University Press), 299 p. (ISBN 978-2-35512-051-0).
- (en) John A. Leslie, The End of the World : The Science and Ethics of Human Extinction [« La Fin du monde »], Routledge, , 310 p. (ISBN 0-415-14043-9, lire en ligne).
- (en) Corey S. Powell, « Twenty ways the world could end suddenly » [« Vingt façons dont le monde pourrait finir brusquement »], Discover, (lire en ligne).
- (en) Nick Bostrom, « Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards » [« Risques existentiels : analyses de scénarios d’extinction de l’humanité »], Journal of Evolution and Technology, vol. 9, no 1, (lire en ligne).
- (en) Martin Rees, Our Final Hour (en) [« Notre dernière heure »], Basic Books, (ISBN 0-465-06862-6).
- (en) Edward Osborne Wilson, The Future of Life [« Le Futur de la vie »], Vintage, (ISBN 0-679-76811-4).
- (en) Jean-François Rischard, High Noon : 20 Global Problems, 20 Years to Solve Them [« Plein midi : vingt problèmes globaux, vingt années pour les résoudre »], Basic Books, (ISBN 0-465-07010-8, présentation en ligne).
- (en) Richard Posner, Catastrophe: Risk and Response [« Catastrophe : risque et réaction »], Oxford, Oxford University Press, , 322 p. (ISBN 978-0-19-530647-7)
- (en) Joel Garreau, Radical Evolution (en) [« Évolution radicale »], Doubleday, , 384 p. (ISBN 978-0-385-50965-7)
- Jared Diamond, Effondrement. Comment les sociétés décident de leur disparition ou de leur survie [« Collapse: How Societies Choose to Fail or Survive »], Gallimard, NRF Essais, , 648 p. (ISBN 2-07-077672-7).
- (en) Derrick Jensen, Endgame (en) [« Fin de partie »], Seven Stories Press, , 931 p. (ISBN 1-58322-730-X, lire en ligne).
- (en) Nick Bostrom, Christopher F. Chyba, Milan M. Cirkovic et Ali Noun, Global Catastrophic Risks [« Risques de catastrophe planétaire »], Oxford University Press, (lire l’introduction en ligne).
- Le numéro 22 de la revue Le Portique (lire en ligne) est entièrement consacré à divers aspects de la notion de catastrophe ; les relations avec les mythes et la science-fiction y sont analysées dans :
- Sébastien Jeanvrin, « Catastrophe, sacré et figures du mal dans la science-fiction : une fonction cathartique », Le Portique, no 22, (lire en ligne).
- (en) Michael H. Huesemann et Joyce A. Huesemann, Techno-fix : Why Technology Won’t Save Us or the Environment [« Techno-fix : pourquoi la technologie ne nous sauvera pas, ni ne sauvera l’environnement »], Douglas & McIntyre, , 464 p. (ISBN 978-0-86571-704-6 et 0-86571-704-4, présentation en ligne), chap. 6 (« Sustainability or Collapse »).
- Jean-Noël Lafargue, Les Fins du monde : de l'Antiquité à nos jours, Paris, François Bourin éditeur, , 312 p. (ISBN 978-2-84941-345-6, présentation en ligne).
- (en) Paul R. Ehrlich et Anne H. Ehrlich, « Can a collapse of global civilization be avoided ? » [« Un effondrement de la civilisation globale peut-il être évité ? »], Proc. R. Soc. B, vol. 280, no 1754, (lire en ligne).
- Hicham-Stéphane Afeissa, La fin du monde et de l'humanité : Essai de généalogie du discours écologique, Paris, Presses universitaires de France, coll. « L’Écologie en questions », , 400 p. (ISBN 978-2-13-062151-5).
- Paul Jorion, Le dernier qui s'en va éteint la lumière : Essai sur l'extinction de l'humanité, Paris, Fayard, , 281 p. (ISBN 978-2-213-69903-5).
- Fred Vargas, L'Humanité en péril : Virons de bord, toute !, Paris, Flammarion, mai 2020 (édition augmentée), 248 p. (ISBN 978-2-08-149086-4).
- (en) Owen Cotton-Barratt, Sebastian Farquhar, John Halstead, Stefan Schubert et Andrew Snyder-Beattie, Global Catastrophic Risks 2016, Global Challenges Foundation, (lire en ligne [PDF]) (Rapport 2016 de la Global Challenges Foundation).
- Jean-Paul Engélibert, Fabuler la fin du monde, Paris, La Découverte, .
- Yves Cochet, Devant l'effondrement. Essai de collapsologie, Paris, Les Liens qui libèrent, , 251 p. (ISBN 979-10-209-0737-0, présentation en ligne).
- (en) Toby Ord, The Precipice : Existential Risk and the Future of Humanity, Londres, Bloomsbury Publishing Plc, , 480 p. (ISBN 978-1526600219)
Articles connexes
- Collapsologie
- Dispositif mondial pour la réduction des risques de catastrophes
- Effondrement écologique
- Eschatologie
- Fin du monde
- Fondation des défis mondiaux
- Grande accélération
- Horloge de la fin du monde
- Problèmes globaux
- Risques d'effondrements environnementaux et sociétaux
- Science-fiction post-apocalyptique
- Survivalisme
Liens externes
- (en) Existential-Risk.org, un site sur les risques existentiels maintenu par Nick Bostrom.
- (en) Cognitive biases potentially affecting judgment of global risks[« Biais cognitifs pouvant affecter le jugement des risques globaux »], un article d'Eliezer Yudkowsky.
- (en) Last Days On Earth [« Les Derniers Jours sur Terre »] ; documentaire TV de ABC News, .
- (en) 10 ways the world could end[« 10 façons dont le monde pourrait finir »], une conférence de Stephen Petranek.
- (en) This is your COVID wake-up call: It is 100 seconds to midnight [« La Covid appelle à vous réveiller : il est 100 secondes avant minuit »], exposé de la situation globale par le Bulletin of the Atomic Scientists, .