Longtermizm

Z Wikipedii, wolnej encyklopedii
Skala przeszłości, teraźniejszości i potencjalnej przyszłości ludzkości[1]

Longtermizm – pogląd, według którego jednym z kluczowych priorytetów naszych czasów powinien być pozytywny wpływ na długofalową przyszłość ludzkości. Do zwolenników longtermizmu należą filozofowie William MacAskill i Toby Ord. Elon Musk stwierdził o książce MacAskilla na temat longtermizmu, że „blisko pasuje do mojej filozofii”[2]. Longtermizm wyrasta z ruchu efektywnego altruizmu. Inspirację dla longtermizmu stanowią m.in. pisma Dereka Parfita[3][4] i Nicka Bostroma[5][6].

Longtermiści wychodzą od obserwacji, że przyszłość ludzkości może być ogromna: ludzkość może przetrwać tyle, co typowe gatunki ssaków (a więc jeszcze setki tysięcy lat)[7], do końca złożonego życia na Ziemi (za setki milionów lat) lub nawet – wskutek kolonizacji kosmosu – do wygaśnięcia ostatnich gwiazd (za setki bilionów lat)[8]. Longtermiści wnioskują zatem, że pozytywny wpływ na potencjalnie ogromne liczby przyszłych ludzi powinien być jednym z kluczowych priorytetów naszych czasów. MacAskill podsumowuje swój argument na rzecz longtermizmu następująco: „Przyszli ludzie mają znaczenie. Może być ich dużo. Możemy poprawić ich życie”[9].

Definicja[edytuj | edytuj kod]

MacAskill definiuje longtermizm jako „pogląd według którego pozytywny wpływ na długofalową przyszłość jest jednym z kluczowych moralnych priorytetów naszych czasów”, w odróżnieniu od silnego longtermizmu, który definiuje jako pogląd „według którego pozytywny wpływ na długofalową przyszłość jest jedynym kluczowym moralnym priorytetem naszych czasów – ważniejszym, w tym momencie, niż wszystko inne.”[10] Ord pisze z kolei, że longtermizm „przykłada szczególną wagę do wpływu naszych działań na długofalową przyszłość. Bierze poważnie fakt, że nasze pokolenie stanowi zaledwie jedną stronę w o wiele dłuższej opowieści, i naszą najważniejszą rolą może być jaki kształt potrafimy – lub nie potrafimy – jej nadać.”[11]

Historia[edytuj | edytuj kod]

Termin „longtermizm” powstał w 2017 roku[12]. Elementy longtermizmu można znaleźć np. w ustnej konstytucji Irokezów, która podtrzymuje „zasadę siódmego pokolenia”: miej na uwadze siódme pokoleniu do przodu[13]. Longtermistyczne wątki – jak np. kwestia moralnej odpowiedzialność za długofalową przyszłość ludzkości – można także znaleźć w pismach T.C. Chamberlina[14][15], J.B.S. Haldane’a[16], Jamesa Jeansa[17][18], Betranda Russella[19][20][21], Carla Sagana[22][23], Jonathana Schella[24], Hansa Jonasa[25], Dereka Parfita[3][4], Martina Reesa[26], Nicka Bostroma[5][6], a także w pismach Stewarta Branda[27] i Romana Krznarica[28].

Igła Kleopatry w Londynie

W 1929 roku astronom James Jeans porównywał proporcje między wiekiem Ziemi, wiekiem ludzkości, historią cywilizacji, i możliwą przyszłością ludzkości do tych między obeliskiem Igła Kleopatry w Londynie, grubością pensówki, grubością znaczka pocztowego, i wysokością Mont Blanc, argumentując, że:

… jako mieszkańcy Ziemi, żyjemy na samym początku historii. Właśnie przyszliśmy na świat w świeżej chwale jutrzenki, i rozciąga się przed nami prawie niewyobrażalnie długi dzień… Naszym potomkom z odległych epok – patrzących na nas z drugiej strony panoramy czasu – nasz obecny wiek będzie się wydawał mglistym porankiem historii; nasi rówieśnicy będą się wydawali niewyraźnymi herosami, którzy przedzierali się przez dżungle niewiedzy, błędu i przesądu, żeby odkryć prawdę, ujarzmić siły natury i stworzyć świat godny do zamieszkania przez człowieka. … Ale zdaje się, iż już możemy dostrzec, że głównym przesłaniem astronomii dla gatunku jest nadzieja, a dla jednostki – odpowiedzialność; odpowiedzialność, bo sporządzamy plany i kładziemy fundamenty pod przyszłość dłuższą niż możemy sobie wyobrazić[29].

Z kolei w 1984 roku filozof Derek Parfit porównywał trzy możliwe scenariusze: (1) pokój, (2) wojna nuklearna, która zabija 99% obecnej światowej populacji, (3) wojna nuklearna, która zabija 100% światowej populacji, argumentując, że:

(2) byłoby gorsze niż (1), a (3) byłoby gorsze niż (2). Która z tych dwóch różnic jest większa? Większość uważa, że między (1) and (2). Ja uważam, że różnica między (2) i (3) jest o wiele większa. (...) Ziemia pozostanie zdatna do zamieszkania przez co najmniej kolejny miliard lat. Cywilizacja ma zaledwie kilka tysięcy lat. Jeśli nie zniszczymy ludzkości, te kilka tysięcy lat mogą stanowić zaledwie mały ułamek całej historii ludzkiej cywilizacji. Różnica między (2) and (3) może zatem stanowić różnicę między tym małym ułamkiem a całą resztą tej historii. Jeśli porównać tą możliwą historię do jednego dnia, to, co się wydarzyło dotychczas, to tylko ułamek sekundy[30].

Argumenty na rzecz longtermizmu przedstawiają też Nick Beckstead[31][32], Hilary Greaves[33], i Holden Karnofsky[34].

Praktyczne implikacje[edytuj | edytuj kod]

Dwa główne sposoby wpływu na długofalową przyszłość według longtermizmu

Longtermiści uważają, że są dwa główne sposoby na poprawę długofalowej przyszłości: zapobieganie zagładzie ludzkości i zmiana trajektorii cywilizacji[35].

Ryzyko egzystencjalne[edytuj | edytuj kod]

Ryzyko egzystencjalne to „ryzyko przedwczesnego wyginięcia inteligentnego życia ziemskiego pochodzenia lub drastycznego i trwałego zniszczenia jego potencjału na dalszy pozytywny rozwój”[36]. Do przykładów zalicza się ryzyko związane z kometami i asteroidami, superwulkanami, wojną nuklearną, pandemiami pochodzenia naturalnego i ludzkiego, ekstremalną zmianą klimatyczną, ideologiami totalitarystycznymi, nanotechnologią czy zaawansowaną sztuczną inteligencją[37][38].

Ord szacuje całkowite ryzyko egzystencjalne w ciągu kolejnych stu lat na jeden do sześciu, przy czym za największe źródło ryzyka egzystencjalnego uznaje zagrożenia związane z zaawansowaną sztuczną inteligencją[39]. Ord uważa, że znajdujemy się obecnie w czasie niezwykle podwyższonego ryzyka egzystencjalnego, który nazywa „Czasem Przepaści” („the Precipice”), którego początek datuje na moment pierwszej detonacji bomby atomowej[40]. Podobne pojęcie „czasu niebezpieczeństw” („time of perils”) pojawia się w pismach astronoma Carla Sagana[41].

Zmiana trajektorii[edytuj | edytuj kod]

Według ekonomisty Tylera Cowena, o ile przyjmujemy długofalową perspektywę czasową, naszym priorytetem powinno być zwiększenie tempa zrównoważonego wzrostu gospodarczego, ponieważ korzyści z takiego wzrostu kumulują się[42][43].

Według MacAskilla obecne tempo wzrostu gospodarczego wydaje się fizycznie niemożliwe do utrzymania przez więcej niż kolejne kilka tysięcy lat, a więc zwiększenie jego tempa miałoby niewielkie efekty na naprawdę długofalową trajektorię cywilizacji[44]. MacAskill przekonuje, że lepszym sposobem zmiany trajektorii cywilizacji w długofalowej perspektywie jest poprawa norm moralnych obowiązujących w społeczeństwie, co stara się pokazać na przykładzie brytyjskiego abolicjonizmu[45]. MacAskill i inni rozważali w tym kontekście projekty instytucji, które lepiej mogłyby odpowiadać na potrzeby przyszłych pokoleń, jak np. specjalne panele obywatelskie[46][47].

Długa Refleksja[edytuj | edytuj kod]

Według Orda i MacAskilla[48][49], jednym z długofalowych celów ludzkości powinien być stan Długiej Refleksji, tzn. „stabilny stan świata, w którym ludzkość jest chroniona od katastrofy i ma możliwość refleksji i debaty nad naturą dobrego życia, a także wypracowania zasad najlepszego społeczeństwa.”[50] Podobne sugestie można znaleźć w pismach Jonathana Schella[51] i Nicka Bostroma[52]. Ord sugeruje, że cel osiągnięcia stanu Długiej Refleksji może stanowić wspólną płaszczyznę dla wielu niekompatybilnych wizji długofalowej ludzkiej przyszłości[53], np. dotyczących kolonizacji kosmosu czy transhumanizmu[54].

Podstawy filozoficzne[edytuj | edytuj kod]

Argumenty na rzecz longtermizmu wywodzą się z różnych tradycji moralnych. Według utylitaryzmu, naszym moralnym obowiązkiem jest zwiększenie sumy dobrostanu odczuwających jednostek. Bostrom zwraca uwagę, że w ciągu czasu, który ludzkości został na Ziemi może istnieć jeszcze 1016 szczęśliwych ludzi, a więc – z utylitarystycznego punktu widzenia – spodziewana wartość obniżenia ryzyka egzystencjalnej katastrofy o jedną milionową jednego procenta jest sto razy większa niż wartość ocalenia jednego miliona ludzi[55]. Pozytywny wpływ na długofalową przyszłość może być też kwestią priorytetową według konsekwencjalistów, ponieważ przyszłość zawiera ogromny potencjał na typy dóbr niezwiązane z dobrostanem, jak np. piękno, dobro i wiedza.

Toby Ord zwraca uwagę na deontologiczne argumenty na rzecz obniżenia ryzyka egzystencjalnego[56]:

  • mamy dług wobec przeszłości, który możemy spłacić tylko przez przekazanie przyszłym pokoleniom dóbr kultury, nauki i sprawiedliwych instytucji[57];
  • bezpośrednie zagrożenie wygnięciem odebrałoby sens wielu obecnym projektom w zakresie sztuki, nauki, medycyny czy polityki[58];
  • los ludzkości może mieć kosmiczne znaczenie, o ile inteligentne życie jest rzadkie we wszechświecie, na co może wskazywać paradoks Fermiego[59];
  • zbiorowe leckeważenie ryzyka egzystencjalnego może być też oznaką braku cywilizacyjnej cnoty roztropności, a więc czymś moralnie nieodpowiednim z punktu widzenia etyki cnót.

Roman Krznaric sugeruje, że większa troska o długofalową przyszłość ludzkości jest moralnie wskazana, ponieważ byłaby rezultatem sprawiedliwego porozumienia za międzypokoleniową zasłoną niewiedzy, a ponadto jest odpowiednią reakcją na moralnie niewłaściwą postawę dominacji obecnego pokolenia nad przyszłymi[60].

Społeczność[edytuj | edytuj kod]

Propozycje związane z longtermizmem doprowadziły do powstania społeczności, która pracuje na rzecz przyszłych pokoleń. Można do niej zaliczyć Centre for the Study of Existential Risk na University of Cambridge, Future of Humanity Institute[61] i Global Priorities Institute[62] na Uniwersytecie Oksfordzkim, organizacja doradztwa zawodowego 80,000 Hours[63], Future of Life Institute[64], i fundacje Forethought Foundation[65] i Longview Philanthropy[66]. Dużym sponsorem projektów związanych z longtermizmem jest fundacja Open Philanthropy[67], której współzałożycielem jest Dustin Moskovitz. Innym dużym sponsorem był Sam Bankman-Fried i jego upadła fundacja FTX Future Fund, która zobowiązała się do przekazania 160 milionów dolarów na cele longtermistyczne[68].

Krytyka[edytuj | edytuj kod]

Etyka populacji[edytuj | edytuj kod]

Jednym zarzutem wobec longtermizmu jest to, że musi opierać się na kontrowersyjnych przesłankach w etyce populacji[69] – np. takich jak totalizm, który implikuje tzw. „odrażającą konkluzję”, tzn. twierdzenie, że „dla każdej możliwej populacji co najmniej 10 miliardów ludzi, z których każdy cieszy się bardzo wysoką jakością życia, musi istnieć znacznie większa możliwa populacja, której istnienie – przy założeniu, że wszystkie pozostałe warunki są takie same – byłoby lepsze, nawet jeśli ci ludzie żyliby życiem, które ledwo warte jest przeżycia.”[70]

W odpowiedzi MacAskill zauważa, że wiele rezultatów z zakresu etyki populacji wskazuje, że żadna przekonująca teoria nie jest w stanie jej uniknąć[71], a zarazem zaznacza, że longtermizm – o ile skupia się na zmianie trajektorii cywilizacji, a nie na uniknięciu zagłady ludzkości – nie musi polegać na kontrowersyjnych przesłankach w etyce populacji[72].

Nieprzewidywalność[edytuj | edytuj kod]

Innym zarzutem wobec longtermizmu jest to, że długofalowe konsekwencje naszych działań są nieprzewidywalne[73]. Zarzut ten jest podobny do szerszego „problemu nieprzewidywalności”, który pojawia się w przypadku konsekwencjalizmu[74].

W odpowiedzi badacze związani z longtermizmem starają się zidentyfikować wydarzenia, na które możemy mieć wpływ w bliższej przyszłości, a które będą miały długotrwały i przewidywalny wpływ, np. wyginięcie ludzkości czy utrata kontroli nad zaawansowaną sztuczną inteligencją[75].

Fanatyzm[edytuj | edytuj kod]

Innym zarzutem wobec longtermizmu jest to, że zakłada racjonalność podejmowania działań mających bardzo małe prawodpodobieństwo bardzo dużych korzyści, a nie działań prowadzących do małych korzyści z dużą pewnością. Ilustracją podobnego problemu jest eksperyment myślowy znany jako „napad na Pascala”[76][77].

W odpowiedzi MacAskill podkreśla, że całkowity poziom ryzyka egzystencjalnego mieści się w zakresie ryzyka, któremu próbujemy przeciwdziałać w życiu codziennym, np. zapinając pasy w samochodzie[78]. Inni badacze związani z longtermizmem wskazują natomiast na argumenty na rzecz tzw. „fanatyzmu”, tzn. ogólnej tezy, że dla każdej korzyści i dla każdego niezerowego prawdopodobieństwa istnieje taka możliwa korzyść, że lepiej jest otrzymać tą drugą ze wspomnianym prawdopodobieństwem niż otrzymać tą pierwszą z całkowitą pewnością[79][80].

Roszczeniowość[edytuj | edytuj kod]

Innym zarzutem wobec longtermizmu jest to, że może prowadzić do nadmiernych wymagań wobec obecnego pokolenia, być może kosztem najbardziej potrzebujących ludzi w obecnym pokoleniu[81]. Podobne zarzuty były wysuwane przeciwko konsekwencjalizmowi[82], i szczególnie przeciwko zastosowaniom utylitaryzmu do problemu międzypokoleniowej sprawiedliwości[83].

W odpowiedzi MacAskill podkreśla, że wiele projektów związanych z longtermizmem ma też korzyści dla obecnego pokolenia; np. zapobieganie pandemiom może zmniejszyć poziom ryzyka egzystencjalnego, a zarazem zwiększyć obecny poziom zdrowia publicznego[84]. Z kolei Ord podkreśla, że według longtermizmu pozytywny wpływ jest tylko jednym z kluczowych priorytetów naszych czasów, i że obecnie na cele związane z longtermizmem wydaje się na świecie mniej niż na lody (60 mld dolarów w 2018 roku)[85][86].

„Cel uświęca środki”[edytuj | edytuj kod]

Innym zarzutem wobec longtermizmu jest to, że może on dostarczyć uzasadnienia dla oszustwa lub przemocy w dążeniu do osiągnięcia longtermistycznych celów[81]. Filozof Peter Singer pisał, że „patrzenie przez pryzmat longtermizmu i ryzyka egzystencjalnego zmniejsza bieżące problemy prawie do zera, dostarczając jednocześnie uzasadnienia na prawie wszystko, co zwiększyłoby nasze szanse przetrwania wystarczająco długo, aby rozprzestrzenić się poza Ziemię.”[87]

W odpowiedzi MacAskill podkreśla, że troska o przyszłe pokolenia, którą wyraża longtermizm, nie uzasadnia oszustwa czy przemocy, podobnie jak troska o środowisko naturalne nie uzasadnia zamachów bombowych na elektrownie[88].

„Long-washing”[edytuj | edytuj kod]

Jeszcze innym zarzutem wobec longtermizmu jako ruchu społecznego jest to, że – podobnie jak w przypadku zjawiska green-washing – może on służyć do stworzenia mylnego wrażenia, że działania firm lub jednostek wspierających longtermistyczne cele są etycznie usprawiedliwione[89]. W podobnym kontekście, Roman Krznaric pisze, że „rosnąca liczba biznesmenów jest nie tylko ekspertami w ‘green-washingu’ (wygłaszaniu bezpodstawnych twierdzeń o tym, co ich firmy robią dla środowiska), ale także w czymś co uważam za ‘long-washing’ (stwarzanie długoterminowej strategii przede wszystkim ze względu na wyniki finansowe firmy raczej niż dla dobra jutrzejszego świata).”[90]

Zobacz też[edytuj | edytuj kod]

Przypisy[edytuj | edytuj kod]

  1. Our World in Data: Longtermism [online], 2022 [dostęp 2023-03-15] (ang.).
  2. Elon Musk, Elon Musk: Twitter [online], Twitter, 2 sierpnia 2022 [dostęp 2023-03-09] (ang.).
  3. a b Derek Parfit, Reasons and Persons, Oxford: Clarendon Press, 1984, s. 453–454, ISBN 0-19-824615-3 (ang.).
  4. a b Derek Parfit, On What Matters: Volume Two, 2011, s. 607–620, ISBN 978-0-19-968104-4 (ang.).
  5. a b Nick Bostrom, Astronomical Waste: The Opportunity Cost of Delayed Technological Development, „Utilitas”, 15 (3), 2003, s. 308–314, DOI10.1017/S0953820800004076, ISSN 0953-8208 [dostęp 2023-03-09] (ang.).
  6. a b Nick Bostrom, Existential Risk Prevention as Global Priority: Existential Risk Prevention as Global Priority, „Global Policy”, 4 (1), 2013, s. 15–31, DOI10.1111/1758-5899.12002 [dostęp 2023-03-09] (ang.).
  7. Anthony D. Barnosky i inni, Has the Earth’s Sixth Mass Extinction Already Arrived?, „Nature”, 471 (7336), 2011, s. 51–57, DOI10.1038/nature09678 [dostęp 2023-03-14] (ang.).
  8. Fred C. Adams, Long-Term Astrophysical Processes, [w:] Nick Bostrom, Milan M. Ćirković (red.), Global Catastrophic Risks, Oxford: Oxford University Press, 2008, DOI10.1093/oso/9780198570509.003.0006 (ang.).
  9. William MacAskill, What We Owe The Future, New York: Basic Books, 2022, s. 9, ISBN 978-1-5416-1862-6, Cytat: „Future people count. There could be a lot of them. We can make their lives go better” (ang.).
  10. William MacAskill, What We Owe The Future, First edition, New York: Basic Books, 2022, s. 253, ISBN 978-1-5416-1862-6, Cytat: „the view that positively influencing the longterm future is the moral priority of our time – more important, right now, than anything else” (ang.).
  11. Toby Ord, The Precipice: Existential Risk and the Future of Humanity, London: Bloomsbury Publishing, 2020, s. 46, ISBN 978-1-5266-0022-6, Cytat: „longtermism ... is especially concerned with the impacts of our actions upon the longterm future. It takes seriously the fact that our own generation is but one page in a much longer story, and that our most important role may be how we shape – or fail to shape – that story” (ang.).
  12. William MacAskill, ‘Longtermism’, Effective Altruism Forum [online] [dostęp 2023-03-10] (ang.).
  13. Oren Lyons, An Iroquois Perspective, [w:] Christopher Vecsey, Robert W. Venables (red.), American Indian Environments: Ecological Issues in Native American History, 1980, s. 171–174 (ang.).
  14. Presentation of a Bust to Professor Chamberlin, „Science”, 17 (429), 1903, s. 475–476, DOI10.1126/science.17.429.475 (ang.).
  15. T.C. Chamberlin, A Geologic Forecast of the Future Opportunities of Our Race, „Science”, 30 (783), 1909, s. 937–949, DOI10.1126/science.30.783.937 (ang.).
  16. The Last Judgment, [w:] J.B.S. Haldane, Possible Worlds and Other Essays, London: Chatto and Windus, 1927, s. 287–312 (ang.).
  17. James Jeans, The Universe Around Us, Cambridge: Cambridge University Press, 1929, s. 336–343 (ang.).
  18. James Jeans, The Wider aspects of Cosmogony, „The Scientific Monthly”, 26 (5), 1928, s. 454–463, JSTOR8012.
  19. Statement: The Russell-Einstein Manifesto, Pugwash Conferences on Science and World Affairs, 9 lipca 1955 [dostęp 2023-03-11] (ang.).
  20. Bertrand Russell, Human Society in Ethics and Politics, London: George Allen & Unwin, Ltd, 1954, s. 235–239 (ang.).
  21. Man’s Peril, [w:] Bertrand Russell, Portraits from Memory and Other Essays, London: George Allen & Unwin, Ltd, 1956, s. 215–220 (ang.).
  22. Carl Sagan, Nuclear War and Climatic Catastrophe: Some Policy Implications, „Foreign Affairs”, 62 (2), 1983, s. 257–292, DOI10.2307/20041818, JSTOR20041818 (ang.).
  23. Carl Sagan, Pale Blue Dot: a Vision of the Human Future in Space, New York: Ballantine Books, 1994, ISBN 0-679-76486-0 (ang.).
  24. Jonathan Schell, The Fate of the Earth, New York: Knopf, 1982, ISBN 0-394-52559-0 (ang.).
  25. Hans Jonas, The Imperative of Responsibility: In Search of an Ethics for the Technological Age, Chicago: University of Chicago Press, 1984, ISBN 0-226-40596-6 (ang.).
  26. Martin Rees, Our Final Century: a Scientist’s Warning: How Terror, Error, and Environmental Disaster Threaten Humankind’s Future in This Century – on Earth and Beyond, London: Arrow, 2004, ISBN 0-09-943686-8 (ang.).
  27. Stewart Brand, The Clock of the Long Now: Time and Responsibility, New York: Basic Books, 1999, ISBN 0-465-00780-5 (ang.).
  28. Roman Krznaric, The Good Ancestor: How to Think Long Term in a Short-Term World, London: WH Allen, 2020, ISBN 978-0-7535-5449-4 (ang.).
  29. James Jeans, The Universe Around Us, Cambridge: Cambridge University Press, 1929, s. 342–343, Cytat: „...as inhabitants of the earth, we are living at the very beginning of time. We have come into being in the fresh glory of the dawn, and a day of almost unthinkable length stretches before us... Our descendants of far-off ages, looking down this long vista of time from the other end, will see our present age as the misty morning of the world’s history; our contemporaries of to-day will appear as dim heroic figures who fought their way through jungles of ignorance, error and superstition to discover truth, to learn how to harness the forces of nature, and to make a world worthy for mankind to live in. ... But by what light we have, we seem to discern that the main message of astronomy is one of hope to the race and of responsibility to the individual – of responsibility because we are drawing plans and laying foundations for a longer future than we can well imagine” (ang.).
  30. Derek Parfit, Reasons and Persons, Oxford: Clarendon Press, 1984, s. 453–454, Cytat: „(2) would be worse than (1), and (3) would be worse than (2). Which is the greater of these two differences? Most people believe that the greater difference is between (1) and (2). I believe that the difference between (2) and (3) is very much greater. (...) The Earth will remain inhabitable for at least another billion years. Civilization began only a few thousand years ago. If we do not destroy mankind, these few thousand years may be only a tiny fraction of the whole of civilized human history. The difference between (2) and (3) may thus be the difference between this tiny fraction and all of the rest of this history. If we compare this possible history to a day, what has occurred so far is only a fraction of a second” (ang.).
  31. Nicholas Beckstead, On the Overwhelming Importance of Shaping the Far Future, Rutgers, The State University of New Jersey, 2013, DOI10.7282/t35m649t [dostęp 2023-03-11] (ang.), PhD Thesis.
  32. Nick Beckstead, A Brief Argument for the Overwhelming Importance of Shaping the Far Future, [w:] Hilary Greaves, Theron Pummer (red.), Effective Altruism: Philosophical Issues, Oxford: Oxford University Press, 2019, s. 80–98, DOI10.1093/oso/9780198841364.003.0006 (ang.).
  33. Hilary Greaves, William MacAskill, The Case for Strong Longtermism [online], GPI Working Paper No. 5-2021, Global Priorities Institute, University of Oxford, 2021 (ang.).
  34. Holden Karnofsky, The „most important century” blog post series [online], Cold Takes, 24 września 2021 [dostęp 2023-03-11] (ang.).
  35. William MacAskill, What We Owe The Future, New York: Basic Books, 2022, s. 35–36, ISBN 978-1-5416-1862-6 (ang.).
  36. Nick Bostrom, Existential Risk Prevention as Global Priority: Existential Risk Prevention as Global Priority, „Global Policy”, 4 (1), 2013, s. 15, DOI10.1111/1758-5899.12002, Cytat: „An existential risk is one that threatens the premature extinction of Earth-originating intelligent life or the permanent and drastic destruction of its potential for desirable future development” (ang.).
  37. Nick Bostrom, Milan M. Ćirković, Introduction, [w:] Nick Bostrom, Milan M. Ćirković (red.), Global Catastrophic Risks, Oxford: Oxford University Press, 2008, ISBN 978-0-19-857050-9 (ang.).
  38. Toby Ord, The Precipice: Existential Risk and the Future of Humanity, London: Bloomsbury Publishing, 2020, s. 67–162, ISBN 978-1-5266-0022-6 (ang.).
  39. Toby Ord, The Precipice: Existential Risk and the Future of Humanity, London: Bloomsbury Publishing, 2020, s. 167, ISBN 978-1-5266-0022-6 (ang.).
  40. Toby Ord, The Precipice: Existential Risk and the Future of Humanity, London: Bloomsbury Publishing, 2020, s. 22–32, ISBN 978-1-5266-0022-6 (ang.).
  41. Carl Sagan, Pale Blue Dot: A Vision of the Human Future in Space, New York: Ballantine Books, 1994, s. 302–312, ISBN 0-679-76486-0 (ang.).
  42. Tyler Cowen, Caring about the Distant Future: Why It Matters and What It Means, „The University of Chicago Law Review”, 74 (5), 2007, s. 5–40, JSTOR4495594 (ang.).
  43. Tyler Cowen, Stubborn Attachments: a Vision for a Society of Free, Prosperous, and Responsible Individuals, San Francisco, CA: Stripe Press, 2018, ISBN 978-1-7322651-3-4 (ang.).
  44. William MacAskill, What We Owe The Future, New York: Basic Books, 2022, s. 27, 145–150, ISBN 978-1-5416-1862-6 (ang.).
  45. William MacAskill, What We Owe The Future, New York: Basic Books, 2022, s. 47–73, ISBN 978-1-5416-1862-6, OCLC 1314633519 (ang.).
  46. William MacAskill, Tyler John, Longtermist Institutional Reform [online], GPI Working Paper No. 14-2020, Global Priorities Institute, University of Oxford, 2020 (ang.).
  47. Roman Krznaric, The Good Ancestor: How to Think Long Term in a Short Term World, London: WH Allen, 2020, s. 163–193, ISBN 978-0-7535-5449-4 (ang.).
  48. Toby Ord, The Precipice: Existential Risk and the Future of Humanity, London: Bloomsbury Publishing, 2020, s. 191–193, ISBN 978-1-5266-0022-6 (ang.).
  49. William MacAskill, What We Owe The Future, First edition, New York, NY: Basic Books, 2022, s. 97–102, ISBN 978-1-5416-1862-6 (ang.).
  50. William MacAskill, What We Owe The Future, New York, NY: Basic Books, 2022, s. 98–99, ISBN 978-1-5416-1862-6, Cytat: „a stable state of the world in which we are safe from calamity and we can reflect on and debate the nature of the good life, working out what the most flourishing society would be” (ang.).
  51. Jonathan Schell, The Fate of the Earth, New York: Knopf, 1982, s. 225–231, ISBN 0-394-52559-0 (ang.).
  52. Nick Bostrom, Existential Risk Prevention as Global Priority, „Global Policy”, 4 (1), 2013, s. 24, DOI10.1111/1758-5899.12002 (ang.).
  53. Toby Ord, The Precipice: Existential Risk and the Future of Humanity, London: Bloomsbury Publishing, 2020, s. 390, ISBN 978-1-5266-0022-6 (ang.), przypis 9.
  54. Roman Krznaric, The Good Ancestor: How to Think Long Term in a Short-Term World, London: WH Allen, 2020, s. 138–160, ISBN 0-7535-5451-8 (ang.).
  55. Nick Bostrom, Existential Risk Prevention as Global Priority, „Global Policy”, 4 (1), 2013, s. 18–19, DOI10.1111/1758-5899.12002 (ang.).
  56. Toby Ord, The Precipice: Existential Risk and the Future of Humanity, London: Bloomsbury Publishing, 2020, s. 49–56, ISBN 978-1-5266-0022-6 (ang.).
  57. The Rights of Past and Future Persons, [w:] Annette Baier, Reflections On How We Live, Oxford: Oxford University Press, 2010, DOI10.1093/acprof:osobl/9780199570362.001.0001, ISBN 978-0-19-957036-2 (ang.), Pierwotnie opublikowany w 1981.
  58. Samuel Scheffler, Why Worry About Future Generations?, Oxford: Oxford University Press, 2018, ISBN 978-0-19-252394-5 (ang.).
  59. Martin Rees, Our Final Century: a Scientist’s Warning: How Terror, Error, and Environmental Disaster Threaten Humankind’s Future in This Century – on Earth and Beyond, London: Arrow, 2004, s. 157–168, ISBN 0-09-943686-8 (ang.).
  60. Roman Krznaric, The Good Ancestor: How to Think Long Term in a Short-Term World, London: WH Allen, 2020, s. 71–91, ISBN 978-0-7535-5449-4 (ang.).
  61. About Us: Future of Humanity Institute [online], The Future of Humanity Institute [dostęp 2023-03-11] (ang.).
  62. About Us: Global Priorities Institute [online], Global Priorities Institute [dostęp 2023-03-11] (ang.).
  63. About Us: 80,000 Hours [online], 80,000 Hours [dostęp 2023-03-11] (ang.).
  64. Our Mission: Future of Life Institute [online], Future of Life Institute [dostęp 2023-03-11] (ang.).
  65. About Us: Forethought Foundation [online], Forethought Foundation [dostęp 2023-03-11] (ang.).
  66. About: Longview Philanthropy [online], Longview Philanthropy [dostęp 2023-03-11] (ang.).
  67. Focus Areas: Open Philanthropy [online], Open Philanthropy, 30 czerwca 2021 [dostęp 2023-03-11] (ang.).
  68. What is long-termism?, „The Economist, ISSN 0013-0613 [dostęp 2023-03-11] (ang.).
  69. Kieran Setiya, The New Moral Mathematics, „Boston Review”, 15 sierpnia 2022 [dostęp 2023-03-11] (ang.).
  70. Derek Parfit, Reasons and Persons, Oxford: Clarendon Press, 1984, s. 388, ISBN 978-0-19-824615-2, Cytat: „The Repugnant Conclusion: For any possible population of at least ten billion people, all with a very high quality of life, there must be some much larger imaginable population whose existence, if other things are equal, would be better, even though its members have lives that are barely worth living” (ang.).
  71. Stéphane Zuber i inni, What Should We Agree on about the Repugnant Conclusion?, „Utilitas”, 33 (4), 2021, s. 379–383, DOI10.1017/S095382082100011X, ISSN 0953-8208 (ang.).
  72. Hilary Greaves, William MacAskill, The Case for Strong Longtermism [online], Global Priorities Institute, University of Oxford, 2021 (ang.), GPI Working Paper No. 5-2021.
  73. Regina Rini, An Effective Altruist? Review of What We Owe The Future [online], Times Literary Supplement, 9 września 2022 [dostęp 2023-03-11] (ang.).
  74. Hilary Greaves, Cluelessness, „Proceedings of the Aristotelian Society”, 116 (3), 2016, s. 311–339, DOI10.1093/arisoc/aow018, ISSN 0066-7374 (ang.).
  75. Hilary Greaves, William MacAskill, The Case for Strong Longtermism [online], Global Priorities Institute, University of Oxford, 2021, GPI Working Paper No. 5-2021.
  76. Nick Bostrom, Napad na Pascala, Tomasz Żuradzki (tłum.), „Analiza i Egzystencja”, 31, 2015, s. 135–138, DOI10.18276/aie.2015.31-07 (pol.).
  77. Nick Bostrom, Pascal’s Mugging, „Analysis”, 69 (3), 2009, s. 443–445, DOI10.1093/analys/anp062 (ang.).
  78. William MacAskill, What We Owe The Future, New York: Basic Books, 2022, s. 259–260, ISBN 978-1-5416-1862-6 (ang.).
  79. Hayden Wilkinson, In Defense of Fanaticism, „Ethics”, 132 (2), 2022, s. 445–477, DOI10.1086/716869 (ang.).
  80. Teru Thomas, Nick Beckstead, A Paradox for Tiny Probabilities and Enormous Values [online], Global Priorities Institute, University of Oxford, 2021 (ang.), GPI Working Paper No. 7-2021.
  81. a b Émile Torres, Why longtermism is the world’s most dangerous secular credo [online], Aeon, 19 października 2021 [dostęp 2023-03-11] (ang.).
  82. Liam B. Murphy, Moral Demands in Nonideal Theory, Oxford: Oxford University Press, 2000, ISBN 0-585-34692-5 (ang.).
  83. John Rawls, A Theory of Justice, Revised edition, Cambridge, Massachusetts: The Belknap Press of Harvard University Press, 1999, s. 251–258, ISBN 0-674-00077-3 (ang.).
  84. William MacAskill, What We Owe The Future, New York: Basic Books, 2022, s. 261, ISBN 978-1-5416-1862-6 (ang.).
  85. Toby Ord, The Precipice: Existential Risk and the Future of Humanity, przypis 56 do strony 58, London: Bloomsbury Publishing, 2020, s. 312–313, ISBN 978-1-5266-0022-6 (ang.).
  86. Ice Cream Market Share 2023, Size, Trends, Report 2028 [online], www.imarcgroup.com [dostęp 2023-03-11] (ang.).
  87. Peter Singer, The Hinge of History [online], Project Syndicate, 8 października 2021 [dostęp 2023-03-11], Cytat: „viewing current problems ... through the lens of ‘longtermism’ and ‘existential risk’ can shrink those problems to almost nothing, while providing a rationale for doing almost anything to increase our odds of surviving long enough to spread beyond Earth” (ang.).
  88. William MacAskill, What We Owe The Future, New York: Basic Books, 2022, s. 260–261, ISBN 978-1-5416-1862-6 (ang.).
  89. Olúfẹ́mi O. Táíwò, Joshua Stein, Is the effective altruism movement in trouble?, „The Guardian”, 16 listopada 2022, ISSN 0261-3077 [dostęp 2023-03-11] (ang.).
  90. Roman Krznaric, The Good Ancestor: How to Think Long Term in a Short-Term World, London: WH Allen, 2020, s. 203, ISBN 978-0-7535-5449-4 (ang.).

Linki zewnętrzne[edytuj | edytuj kod]