Technologiczna osobliwość

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacji, wyszukiwania
Koszty mocy obliczeniowej maleją w sposób wykładniczy. Według Raya Kurzweila spowoduje to, że przed 2040 rokiem, komputer osobisty za 1000 dolarów amerykańskich będzie efektywniejszy od człowieka we wszystkich zadaniach.

Technologiczna osobliwość (lub po prostu Osobliwość, z ang. Singularity) – hipotetyczny punkt w przyszłym rozwoju cywilizacji, w którym postęp techniczny stanie się tak szybki, że wszelkie ludzkie przewidywania staną się nieaktualne[1]. Głównym wydarzeniem, mającym do tego doprowadzić, byłoby stworzenie sztucznych inteligencji przewyższających intelektualnie ludzi. Takie sztuczne inteligencje mogłyby opracowywać jeszcze wydajniejsze sztuczne inteligencje, wywołując lawinową zmianę w technologii[2].

Nazwę Osobliwość wprowadził i rozpowszechnił Vernor Vinge w latach 80. XX wieku, porównując niemożliwość przewidzenia skutków takiego wydarzenia do niemożliwości zastosowania znanych nam praw fizyki w osobliwości grawitacyjnej. Podobne idee były jednak omawiane już w latach 50. i 60., m.in. przez Irvinga Gooda, Janusza Zajdla i Johna von Neumanna. Obawy, że takie wydarzenie mogłoby stanowić zagrożenie dla istnienia ludzkiej cywilizacji, wyrazili m.in. Bill Joy[3], Nick Bostrom[4] i Hugo de Garis[5].

Ray Kurzweil przedstawił alternatywne podejście do Osobliwości, twierdząc, że można przewidzieć jej nadejście na podstawie ekstrapolacji dotychczasowych trendów rozwoju techniki i uogólnienia prawa Moore'a na inne dziedziny technologii. Według Kurzweila, przełomy w rozwoju technologicznym zdarzają się w coraz mniejszych odstępach czasu, które zmaleją do minimalnych wartości około 2045 roku[6].

Robin Hanson stwierdził, że wiele „osobliwości” miało już miejsce w historii ludzkości, znacznie wpływając na rozwój gospodarki. Najjaskrawszymi przykładami była rewolucja neolityczna i rewolucja przemysłowa. Według niego, powstanie sztucznych inteligencji, zastępujących całą ludzką pracę, wywołałoby 60-250 krotny wzrost gospodarczy[7].

Hipotezę o dążeniu ludzkości do Osobliwości podważają m.in. Hubert Dreyfus[8], Steven Pinker[9], Andriej Korotajew[10] i Jürgen Schmidhuber[11].

Motyw Osobliwości po raz pierwszy pojawił się w powieściach Vingego „Marooned in Realtime” i „Ogień nad otchłanią”. Obecnie jest często wykorzystywanym elementem fabuły w fantastyce naukowej.

Historia idei[edytuj | edytuj kod]

Stanisław Ulam jako pierwszy posłużył się terminem „osobliwość” w kontekście postępu technologicznego, przytaczając w 1958 roku rozmowę z Johnem von Neumannem[12]:

Rozmowa skupiła się na temacie nieprzerwanie przyspieszającego postępu technologicznego i zmian w ludzkim życiu, które to procesy zdają się dążyć do pewnego osobliwego punktu w historii naszej rasy, po którym styl życia, jaki obecnie znamy, nie będzie mógł trwać.

W latach 60. XX wieku, Irving J. Good spekulował na temat konsekwencji powstania maszyn inteligentniejszych od ludzi[13]:

Zdefiniujmy maszynę ultrainteligentną jako maszynę, która przewyższa intelektualnie każdego człowieka. Skoro projektowanie maszyn jest jedną z prac umysłowych, maszyna ultrainteligentna mogłaby projektować jeszcze lepsze maszyny. Byłaby to bez wątpienia eksplozja inteligencji, która pozostawiłaby człowieka daleko w tyle. Maszyna ultrainteligentna będzie ostatnim wynalazkiem człowieka.

W latach 80. XX wieku, Vernor Vinge spopularyzował teorię Gooda o eksplozji inteligencji i użył w jej kontekście nazwy „osobliwość”:

Wkrótce stworzymy inteligencje większe niż nasze własne. Gdy to się stanie, ludzka historia osiągnie pewną osobliwość, intelektualny punkt przejściowy tak nieprzenikniony jak zakrzywiona czasoprzestrzeń w środku czarnej dziury, i świat przestanie być dla nas zrozumiały.

W 1993 roku Vinge przewidywał, że nastąpi to między 2005 a 2030 rokiem[1].

W późniejszych latach powstało wiele teorii, jakie technologie mogłyby doprowadzić do powstania nadludzkich inteligencji. Większość można podzielić na dwie kategorie: wspomaganie ludzkiej inteligencji oraz stworzenie sztucznej inteligencji. Do wspomagania ludzkiej inteligencji może być wykorzystana bioinżynieria, inżynieria genetyczna, leki nootropowe i bezpośredni interfejs mózg-komputer. Sztuczna inteligencja może zostać stworzona przy użyciu komputerów, poprzez symulację pracy mózgu, bądź przy wykorzystaniu komputerów kwantowych. Rozwój technologii informatycznej sprawił, że obecnie bardziej oczekiwane jest pojawienie się sztucznych inteligencji[2]. Robin Hanson wyraził sceptycyzm w stosunku do wzmacniania ludzkiej inteligencji, twierdząc, że po wyczerpaniu łatwych metod jej zwiększania, kolejne ulepszenia staną się coraz trudniejsze do osiągnięcia[14].

Aktualnie nie wiadomo, czy kiedykolwiek powstaną sztuczne inteligencje dorównujące ludziom. Mózg człowieka zawiera 15 – 33 miliardów neuronów, z których każdy może mieć do 10 tysięcy połączeń synaptycznych[15]. Ilość informacji, potrzebnych do odtworzenia jego funkcjonalności w pamięci komputera, jest szacowana na 500 petabajtów[16], a wydajność potrzebna do symulacji jego działania w czasie rzeczywistym na kilkaset petaflops[17][18][19]. Współczesna technologia informatyczna nie umożliwia praktycznej realizacji tego zadania. Ponieważ wydajność komputerów rośnie około 1000 razy w ciągu 10 lat[20], ta sytuacja może się jednak zmienić w najbliższej przyszłości. Blue Brain Project, rozpoczęty w 2005 roku, ma w planach realizację tego zadania przy pomocy superkomputera około 2020 roku[21].

Eliezer Yudkowsky przedstawił następujące rozumowanie, pokazujące do czego doprowadzi stworzenie maszyn dorównujących ludziom[22]: Aktualnie, dzięki pracy inżynierów, szybkość dostępnych komputerów podwaja się w ciągu dwóch lat. Jeśli zastąpimy inżynierów maszynami, po dwóch latach powstaną ich nowe wersje, pracujące dwukrotnie szybciej. Będą więc potrafiły przyspieszyć pracę komputerów dwukrotnie w ciągu jednego roku. Po upływie tego roku, kolejna generacja będzie już potrafiła podwoić szybkość komputerów w ciągu 6 miesięcy, kolejna w ciągu 3 miesięcy itd. Sumarycznie, po upływie 4 lat prędkość komputerów doszłaby do nieskończoności.

Teoria przyspieszających zmian[edytuj | edytuj kod]

Rozpowszechnienie nowych wynalazków: liczba lat jakie upłynęły zanim dany wynalazek znalazł się w 1/4 domów w USA.

Ray Kurzweil, analizując historię ludzkości, doszedł do wniosku, że postęp techniczny następuje w sposób wykładniczy, ponieważ każdy wynalazek przyspiesza pojawienie się kolejnego. Uogólnił prawo Moore'a, opisujące geometryczny wzrost złożoności układów scalonych, odnosząc je również do innych technologii. Według jego przewidywań, kluczowe odkrycia naukowe będą następować w coraz krótszych odstępach czasu, aż nastąpi „rozerwanie tkaniny reprezentującej historię cywilizacji”[23]. Kurzweil wierzy, że osobliwość powstanie jeszcze przed końcem pierwszej połowy XXI wieku, najprawdopodobniej około roku 2045[24]. W odróżnieniu od Vinge'a, zakłada raczej stopniowe zbliżanie się do osobliwości niż gwałtownie rozwijającą się nadludzką inteligencję. Według niego, najpierw w 2029 r. pojawi się silna sztuczna inteligencja, która do 2045 roku wyewoluuje w osobliwość.

Potencjalne niebezpieczeństwa[edytuj | edytuj kod]

Wielu futurologów przewiduje, że technologiczna osobliwość może stanowić zagrożenie dla istnienia ludzkości. Hugo de Garis zasugerował, że sztuczne superinteligencje mogą po prostu wyeliminować ludzi i ludzie nie będą w stanie ich przed tym powstrzymać[5]. Według Anthony'ego Berglasa, oparta na komputerach inteligencja nie będzie, w odróżnieniu od człowieka, powiązana z żadnym konkretnym ciałem, co spowoduje, że jej postrzeganie świata będzie zupełnie inne niż ludzkie[17]. Nick Bostrom przytacza przykładowy scenariusz, w którym superinteligencja, chcąc rozwiązać zadany jej problem matematyczny, angażuje surowce całego Układu Słonecznego do stworzenia urządzenia liczącego, zabijając między innymi osobę, która zadała pytanie[4]. Bill Hibbard zwraca uwagę, że powstanie superinteligencji może znacznie powiększyć nierówności społeczne, oraz sugeruje, że kluczem do uniknięcia problemów jest zaprojektowanie sztucznych inteligencji w ten sposób, aby odczuwały miłość do ludzi[25].

Hans Moravec stwierdził, że nawet jeśli nadludzka inteligencja może sprawić, że ludzie staną się zbędni jako nadrzędna forma życia, to wciąż będzie dla nich miejsce w ziemskim ekosystemie[26].

Eliezer Yudkowsky zaproponował, by rozpocząć badania mające na celu stworzenie przyjaznej sztucznej inteligencji z uwzględnieniem wszystkich niebezpieczeństw[27]. Zwrócił uwagę, że jeśli pierwsza sztuczna inteligencja będzie przyjazna człowiekowi, będzie miała lepszy start przed wrogimi SI. Organizacja Singularity Institute for Artificial Intelligence koncentruje się właśnie na stworzeniu takiej przyjaznej sztucznej inteligencji.

Trzy prawa robotyki sformułowane przez Isaaca Asimova są jednym z najwcześniejszych przykładów proponowanych zabezpieczeń dla maszyn myślących. W 2004 roku SIAI rozpoczął internetową kampanię pod hasłem 3 laws unsafe, by podnieść społeczną świadomość kwestii bezpieczeństwa i niedoskonałości praw robotyki Asimova[28].

Niektórzy anarchoprymitywiści i ekoanarchiści, jak John Zerzan i Derrick Jensen, postrzegają Osobliwość jako kulminację kontroli maszyn i utratę możliwości swobodnej egzystencji poza cywilizacją. James John Bell[29] wyraża obawy natury ekologicznej w odniesieniu do Osobliwości.

Krytyka[edytuj | edytuj kod]

Teoria o nadchodzącej technologicznej osobliwości stała się obiektem krytyki z kilku punktów widzenia. Niektórzy naukowcy, m.in. Hubert Dreyfus, Stuart Russell i Peter Norvig przewidują, że żadna maszyna nigdy nie osiągnie poziomu ludzkiej inteligencji[8][30]. Założenia teorii Kurzweila, dotyczącej przyspieszających zmian technologicznych, są również kwestionowane. Theodore Modis[31] i Jonathan Huebner[32] twierdzą nawet, że postęp techniczny zwalnia. Dowodem na to jest zwalnianie wzrostu częstotliwości procesorów, mimo że prędkość wzrostu złożoności układów scalonych nadal utrzymuje się na poziomie zakładanym przez prawo Moore'a. Podobnie porównanie liczby patentów przypadających na tysiąc osób pokazuje, że ludzka kreatywność nie przejawia gwałtownych wzrostów, a raczej stopniowy spadek. Największy wskaźnik liczby nowych patentów na tysiąc osób przypadał na okres 1850-1900 i od tej pory spada. Rosnąca złożoność z czasem staje się barierą i prowadzi do zapaści systemu – obecnie pojedynczy wybitny naukowiec nie może ogarnąć całości swoich badań, jak miało to miejsce jeszcze na przełomie XIX i XX wieku. John Smart podważa jednak analizę Huebnera[33].

Inni naukowcy utrzymują, że trend dążący do „osobliwości” można dostrzec w innych dziedzinach, jak na przykład populacja Ziemi czy PKB. Dla każdego z tych trendów istnieją jednak fundamentalne fizyczne ograniczenia i po okresie gwałtownego wzrostu następuje zawsze spowolnienie, albo nawet spadek. Na przykład Andriej Korotajew twierdzi, że w przeszłości hiperboliczny wzrost PKB wynikał ze sprzężenia zwrotnego, które przestało mieć wpływ na światowe trendy w latach siedemdziesiątych. Dlatego nie należy spodziewać się hiperbolicznego wzrostu w przyszłości[10][34].

Jürgen Schmidhuber zasugerował[11], że obserwowane przyspieszenie zmian odzwierciedla jedynie szczegółowość pamiętania niedawnych zdarzeń w stosunku do odległych. Według tej sugestii, analogiczne mechanizmy były przyczyną wszelkich apokaliptycznych przewidywań w przeszłości.

Technologiczna osobliwość w fantastyce[edytuj | edytuj kod]

Motyw technologicznej osobliwości był wykorzystywany przez wielu twórców science fiction. Pojawia się między innymi w powieściach Vernora Vinge'a, Isaaca Asimova, Jacka Dukaja, Charlesa Strossa i Grega Egana. Motyw stworzonej przez ludzi ultrainteligentnej maszyny, która niszczy ludzkość, został wykorzystany między innymi w serii filmów Terminator, opowiadaniu „Nie mam ust, a muszę krzyczećHarlana Ellisona i cyklu Hyperion Dana Simmonsa. W filmie „Ja, robot”, luźno opartym na powieściach Asimova, pojawia się motyw sztucznej inteligencji przejmującej całkowitą kontrolę nad ludzkością w celu ochronienia ludzkości przed samą sobą.

Przypisy

  1. 1,0 1,1 Vinge, Vernor. "The Coming Technological Singularity: How to Survive in the Post-Human Era"
  2. 2,0 2,1 What is the Singularity? Singularity Institute for Artificial Intelligence
  3. Bill Joy. Why the future doesn’t need us. „Wired”, April 2000. Viking Adult. [dostęp 2007-08-07]. 
  4. 4,0 4,1 Nick Bostrom. Existential Risks. „Journal of Evolution and Technology”. 9, 2002. [dostęp 2007-08-07]. 
  5. 5,0 5,1 Hugo de Garis. "The Coming Artilect War", Forbes, 22 czerwca 2009.
  6. Ray Kurzweil, The Singularity is Near. Penguin Group, 2005
  7. Robin Hanson. Economics Of The Singularity. . [dostęp 2008-09-11]. 
  8. 8,0 8,1 Hubert Dreyfus. Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer. , 1986. Oxford, UK: Blackwell. 
  9. Tech Luminaries Address Singularity – IEEE Spectrum
  10. 10,0 10,1 Korotayev A., Malkov A., Khaltourina D. Introduction to Social Macrodynamics: Compact Macromodels of the World System Growth. Moscow: URSS Publishers, 2006; Korotayev A. V. A Compact Macromodel of World System Evolution // Journal of World-Systems Research 11/1 (2005): 79–93.
  11. 11,0 11,1 Jürgen Schmidhuber. New Millennium AI and the Convergence of History. , 29 czerwca 2006. [dostęp 2007-08-07]. 
  12. Stanislaw Ulam. Tribute to John von Neumann. „Bulletin of the American Mathematical Society”. 64 (nr 3, part 2), s. 1–49, May 1958. 
  13. Good, I. J., "Speculations Concerning the First Ultraintelligent Machine", Franz L. Alt and Morris Rubinoff, ed., Advances in Computers (Academic Press) 6: 31–88, 1965.
  14. Robin Hanson. Some Skepticism. , 1998. Robin Hanson. [dostęp 2009-06-19]. 
  15. Pelvig DP, Pakkenberg H, Stark AK, Pakkenberg B. Neocortical glial cell numbers in human brains Neurobiol Aging, 29 listopada 2008
  16. Johan Lehrer Out of the Blue 3 marca 2008
  17. 17,0 17,1 Anthony Berglas, Artificial Intelligence Will Kill Our Grandchildren 22 lutego 2009
  18. Blue Brain Project FAQ
  19. Sally Adee, IBM Unveils a New Brain Simulator, listopad 2009
  20. Rozwój wydajności superkomputerów na stronie TOP500
  21. W laboratoriach powstaje sztuczny mózg. W: TVN24.pl [on-line]. 2009-07-23. [dostęp 2010-12-13].
  22. Eliezer S. Yudkowsky Staring into the Singularity
  23. Raymond Kurzweil. The Law of Accelerating Returns. , 2001. Lifeboat Foundation. [dostęp 2007-08-07]. 
  24. Raymond Kurzweil. The Singularity Is Near. , 2005. New York: Viking. 
  25. Bill Hibbard, Super-intelligent machines, SIGGRAPH Comput. Graph, 2001
  26. Hans Moravec. Pigs in Cyberspace. „On the Cosmology and Ecology of Cyberspace”, styczeń 1992. [dostęp 2007-11-21]. 
  27. The Singularity: Three Major Schools
  28. Singularity Institute announces “3 laws unsafe”
  29. James John Bell. Technotopia and the Death of Nature: Clones, Supercomputers, and Robots. , 2002. Earth Island Journal. [dostęp 2007-08-07]. 
  30. Stuart J. Russell. Artificial Intelligence: A Modern Approach. , 2003. Prentice Hall. 
  31. Theodore Modis: Forecasting the Growth of Complexity and Change. Technological Forecasting & Social Change, 69, No 4, 2002. [dostęp 5 stycznia 2012].
  32. Jonathan Huebner. A Possible Declining Trend for Worldwide Innovation, Technological Forecasting & Social Change, październik 2005, s. 980-6
  33. John Smart. On Huebner Innovation, Acceleration Studies Foundation
  34. A Compact Mathematical Model of the World System Economic and Demographic Growth, 1 CE - 1973 CE.

Linki zewnętrzne[edytuj | edytuj kod]