Existenční riziko
Existenční riziko (anglicky existential risks) je druh globálního rizika, které může ohrozit existenci lidstva, popř. života v podobě v jaké ho známe, jako celku. Pojem v akademickém prostředí etabloval švédský badatel Nick Bostrom z Oxfordská univerzity. Existenční rizika jsou výzvou pro koncepci udržitelného rozvoje. Uvádí se, že snahy o udržitelnost by měly reflektovat existenční nebezpečí a snažit se spíše o udržitelnou trajektorii a ne o udržitelný stav.[1]
Vývoj pojmu
Ohrožení života na planetě a obavy z konce existence jsou námětem lidských úvah od nejranějších dob. Různé katastrofické vize se nalézají již ve starověkých náboženských spisech. Poslední kniha Nového zákona, Zjevení sv. Jana, jež popisuje konec světa, se stala inspirací mnoha umělcům a různým vykladačům Písma pro jejich popis a deskripci posledních dnů lidstva. Od začátku průmyslové revoluce pak narůstá počet dystopií, jež extrapolací trendů tvoří katastrofické scénáře. Na ně navazuje vznik tematické sci-fi literatury, která reaguje na příchod nových technologií a upozorňuje, že mohou mít fatální důsledky pro lidstvo (např. Čapkova hra R.U.R., jež položila základy žánru či Asimovovo kultovní dílo Já, robot).
Ve druhé polovině dvacátého století vznikla řada děl, která upozorňují na vážná ohrožení života na zemi jako důsledku degradace životního prostředí, mezi nejznámější patří Tiché jaro (Silent Spring) Rachel Carsonové (1962) či kultovní Meze růstu (Limits to Growth) manželů Meadowsových (1972). Došlo ke vzniku environmentálního hnutí a mezinárodnímu řešení této problematiky (zejm. na konferencích OSN) a vědeckému zkoumání vlivu technologií na životní prostředí a lidský blahobyt. Po roce 2000 se v akademickém prostředí začínala prosazovat koncepce globálních a existenčních rizik, která upozorňuje na nutnost multidisciplinárního přístupu. Vědci začali zkoumat na profesionální úrovni různá možná ohrožení existence lidstva.[2] Nick Bostrom založil Future of Humanity Institute na University of Oxford[3] a Strategic Artificial Intelligence Research Centre[4], na univerzitě v Cambridge vzniklo Cambridge Centre for the Study of Existential Risk (CSER)[5], které patří mezi lídry v oblasti zkoumání existenčních rizik.
Jednotlivá rizika
Mezi nejzávažnějšími existenčními riziky (antropogenního původu) je zmiňována především umělá inteligence, která, pokud nebude podchycena a budována na dobrém hodnotovém rámci, může mít pro lidstvo fatální důsledky. Mezi další patří např. špatné zacházení s biotechnologiemi a nanotechnologiemi, environmentální katastrofy (z antropogenních příčin), válečné konflikty, demografické problémy a zemědělské krize. Mezi neantropogenní se řadí pád meteoritu, napadení nepřátelskými organismy, environmentální katastrofy (bez zavinění člověka), kosmické hrozby, globální pandemie, megatsunami, sopečná činnost a další.
Odhady pravděpodobnosti
K posouzení pravděpodobností jednotlivých rizik se často používají expertní odhady vzhledem k limitacím běžných dat a modelování.[6] Neformální dotazníkové šetření expertů na konferenci pořádané Future of Humanity Institute v roce 2008 publikovalo odhad 19% pravděpodobnosti vyhynutí lidstva do roku 2100, nicméně tento odhad by měl být brát "s rezervou".
Riziko | Odhadovaná pravděpodobnost vyhynutí lidstva do roku 2100 |
---|---|
Celková pravděpodobnost | |
Zbraně využívající molekulární nanotechnologie | |
Existenciální riziko z umělé superinteligence | |
Jakékoli války (včetně občanských válek) | |
Engineered pandemic | |
Jaderná válka | |
Nanotechnologická nehoda | |
Přírodní pandemie | |
Jaderný terorismus |
Table source: Future of Humanity Institute, 2008.[6]
Mnozí experti poskytli jejich odhady pravděpodobnosti existenčních rizik, rizik vyhynutí nebo kolaps civilizace:
- V roce 2002 Nick Bostrom uvedl následující odhad existenčního rizika v dlouhodobém horizontu: 'Dle mého subjektivního názoru stanovení této pravděpodobnosti nižší než 25 % by bylo zavádějící a nejlepší odhad může být podstatně vyšší.'[7]
- V roce 2003 Martin Rees uvedl odhad 50% pravděpodobnosti kolapsu civilizace v 21. století.[8]
- Výroční zpráva Global Challenges Foundation pro rok 2016 odhaduje pravděpodobnost vyhynutí lidstva na aspoň 0,05 % za rok.[9]
- Mediánový účastník průzkumu odborníků na umělou inteligenci v roce 2016 uvedl 5% odhad pravděpodobnosti, že umělá inteligence na lidské úrovni by měla extrémně špatný dopad (např. vyhynutí lidstva).[10]
- V roce 2020 Toby Ord ve své knize The Precipice: Existential Risk and the Future of Humanity odhaduje existenciální riziko v příštím století na 1/6.[11][12]
Odkazy
Reference
- http://www.existential-risk.org/concept.pdf
- http://www.newstatesman.com/sci-tech/2014/09/apocalypse-soon-scientists-preparing-end-times
- https://www.fhi.ox.ac.uk/
- https://www.fhi.ox.ac.uk/research/research-areas/strategic-centre-for-artificial-intelligence-policy/
- cser.org [online]. [cit. 29-06-2016]. Dostupné v archivu pořízeném dne 12-12-2015.
- ROWE, Thomas; BEARD, Simon. Probabilities, methodologies and the evidence base in existential risk assessments. Working Paper, Centre for the Study of Existential Risk. 2018. Dostupné online [cit. August 26, 2018]. (anglicky)
- BOSTROM, Nick. Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards. Journal of Evolution and Technology. 2002. (anglicky)
- REES, Martin. Our Final Century. [s.l.]: Arrow Books, 2004. S. 9. (anglicky)
- MEYER, Robinson. Human Extinction Isn't That Unlikely [online]. Boston, Massachusetts: Emerson Collective, April 29, 2016 [cit. 2016-04-30]. Dostupné online. (anglicky)
- GRACE, Katja; SALVATIER, John; DAFOE, Allen; ZHANG, Baobao; EVANS, Owain. When Will AI Exceed Human Performance? Evidence from AI Experts [online]. May 3, 2018. Dostupné online. (anglicky)
- ORD, Toby. The Precipice: Existential Risk and the Future of Humanity. New York: Hachette, 2020. ISBN 9780316484916. (anglicky)
- PURTILL, Corinne. How Close Is Humanity to the Edge? [online]. [cit. 2021-01-08]. Dostupné online. (anglicky)