Superkomputer

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj
Titan - najpotężniejszy superkomputer w listopadzie 2012 roku.

Superkomputerkomputer znacznie przewyższający możliwościami powszechnie używane komputery, w szczególności dysponujący wielokrotnie większą mocą obliczeniową. Określenie to pojawiło się w latach 60. w odniesieniu do komputerów produkowanych przez CDC i później przez firmę Cray. Były one produkowane w dziesiątkach egzemplarzy i kosztowały po kilka milionów dolarów. Współcześnie większość superkomputerów to pojedyncze egzemplarze, zaprojektowane i wyprodukowane na zamówienie, zazwyczaj z seryjnie produkowanych procesorów i innych podzespołów. Koszty ich produkcji sięgają miliarda dolarów[1]. Od czerwca 2013 najszybszym superkomputerem na świecie jest Tianhe-2, zbudowany w Chinach[2].

Postęp techniczny w dziedzinie informatyki powoduje, że każdy superkomputer staje się przestarzały w ciągu kilku lat i jego używanie przestaje być opłacalne. Maszyny zaliczane dwadzieścia lat temu do klasy superkomputerów miały wydajność porównywalną z dzisiejszymi urządzeniami przenośnymi. Przykładowo iPad 3 w teście LINPACK uzyskuje wynik 896 MFLOPS, co w 1993 roku stawiałoby go wśród 300 najszybszych superkomputerów świata[3][4].

Superkomputery używane są głównie do przeprowadzania złożonych fizycznych symulacji, takich jak prognozowanie pogody, badania zmian klimatu, modelowanie reakcji chemicznych, badanie aerodynamiki samolotów czy badania procesów starzenia broni jądrowej.

Porównywanie wydajności superkomputerów[edytuj | edytuj kod]

Główną miarą wydajności, stosowaną obecnie dla superkomputerów, jest liczba wykonywanych w ciągu sekundy operacji na liczbach zmiennoprzecinkowych (FLOPS). Podaje się ją często z odpowiednim przedrostkiem SI. Przykładowo teraflops („TFLOPS”) to 1012 FLOPS, a petaflops („PFLOPS”) to 1015 FLOPS. Mierzy się ją za pomocą odpowiednich testów wzorcowych. Najpopularniejszym takim testem jest LINPACK, mierzący szybkość rozwiązywania gęstych układów równań liniowych za pomocą metody Gaussa. Ponieważ wiele problemów stawianych superkomputerom daje się sprowadzić do rozwiązywania takich równań, test ten jest wygodną abstrakcją pomiaru efektywności w rozwiązywaniu takich problemów. Superkomputery uzyskujące najwyższe wyniki w tym teście są od 1993 roku publikowane na liście TOP500, aktualizowanej dwa razy w roku.

Inną miarą wydajności superkomputerów jest miara FLOPS/wat, uwzględniająca oprócz szybkości wykonywania obliczeń również zużycie prądu przez superkomputery. Najefektywniejsze według tej miary superkomputery z listy TOP500 są publikowane od 2007 roku na liście Green500.

Historia[edytuj | edytuj kod]

Wykładniczy wzrost mocy obliczeniowej superkomputerów w latach 1993-2014 na podstawie strony top500.org. Na osi pionowej podana jest moc obliczeniowa w GFLOPS.

     Suma mocy obliczeniowej 500 najszybszych superkomputerów

     Najszybszy superkomputer na świecie

     Superkomputer na 500 miejscu

ENIAC - najpotężniejszy komputer w latach 40. XX wieku
CDC 6600 - najpotężniejszy komputer w latach 60. XX wieku
Cray-2 - napotężniejszy komputer w latach 80. XX wieku
Blue Gene - najpotężniejszy komputer w latach 2004-2008

Poniższa tabela przedstawia światowe rekordy szybkości dla komputerów ogólnego przeznaczenia i lata w których zostały ustanowione. Rekordy sprzed 1993 roku podane są na podstawie Computer History Museum[5], a od 1993 roku na podstawie listy TOP500[6].

Rok Superkomputer Szybkość
[nota 1]
Twórca i lokalizacja
1938 Zuse Z1 1 OPS Konrad Zuse, Berlin, Niemcy
1941 Zuse Z3 20 OPS Konrad Zuse, Berlin, Niemcy
1943 Colossus 1 5 kOPS Post Office Research Station, Bletchley Park, Wielka Brytania
1944 Colossus 2 (jednoprocesorowy) 25 kOPS
1946 Colossus 2 (wieloprocesorowy) 50 kOPS
1946 ENIAC 5 kOPS Departament Wojny USA, Maryland, USA
1954 IBM NORC 67 kOPS Departament Obrony Stanów Zjednoczonych, Wirginia, USA
1956 TX-0 83 kOPS MIT, Lexington, Massachusetts, USA
1958 AN/FSQ-7 400 kOPS IBM, 25 lokalizacji w USA i 1 w Kanadzie (52 komputery)
1960 UNIVAC LARC 250 kFLOPS UNIVAC, Atomic Energy Commission
Lawrence Livermore National Laboratory, Kalifornia, USA
1961 IBM 7030 Stretch 1,2 MFLOPS Los Alamos National Laboratory, Nowy Meksyk, USA
1964 CDC 6600 3 MFLOPS CDC, Lawrence Livermore National Laboratory, Kalifornia, USA
1969 CDC 7600 36 MFLOPS
1974 CDC STAR-100 100 MFLOPS
1975 ILLIAC IV 150 MFLOPS Burroughs, ARC, Kalifornia, USA
1976 Cray-1 250 MFLOPS Cray, Los Alamos National Laboratory, Nowy Meksyk, USA
(+około 80 egzemplarzy na całym świecie)
1981 CDC Cyber 205 400 MFLOPS CDC (około 40 egzemplarzy na całym świecie)
1983 Cray X-MP/4 941 MFLOPS Cray, Departament Energii Stanów Zjednoczonych
Los Alamos National Laboratory
1984 M-13 2,4 GFLOPS Moskwa, ZSRR
1985 Cray-2/8 3,9 GFLOPS Cray, Lawrence Livermore National Laboratory, Kalifornia, USA
1989 ETA10-G/8 10,3 GFLOPS Florida State University, Floryda, USA
1990 SX-3/44R 23,2 GFLOPS NEC Corporation, Fuchu Plant, Fuchū, Japonia
1993 CM-5/1024 59,7 GFLOPS Thinking Machines, Los Alamos National Laboratory; NSA
1993 Numerical Wind Tunnel 124,5 GFLOPS Fujitsu, Tokio, Japonia
1993 Intel Paragon XP/S 140 143,4 GFLOPS Intel, Sandia National Laboratories, Nowy Meksyk, USA
1994 Numerical Wind Tunnel 170,4 GFLOPS Fujitsu, Tokio, Japonia
1996 SR2201/1024 220,4 GFLOPS Hitachi, Uniwersytet Tokijski, Japonia
CP-PACS/2048 368,2 GFLOPS Hitachi, Tsukuba, Japonia
1997 ASCI Red/9152 1,338 TFLOPS Intel, Sandia National Laboratories, Nowy Meksyk, USA
1999 ASCI Red/9632 2,380 TFLOPS
2000 ASCI White 7,226 TFLOPS IBM, Lawrence Livermore National Laboratory, Kalifornia, USA
2002 Earth Simulator 35,86 TFLOPS NEC, Jokohama, Japonia
2004 Blue Gene/L 70,72 TFLOPS IBM, Departament Energii Stanów Zjednoczonych, Minnesota, USA
2005 136,8 TFLOPS IBM, Lawrence Livermore National Laboratory, Kalifornia, USA
280,6 TFLOPS
2007 478,2 TFLOPS
2008 Roadrunner 1,026 PFLOPS IBM, Los Alamos National Laboratory, Nowy Meksyk, USA
1,105 PFLOPS
2009 Jaguar 1,759 PFLOPS Cray, Oak Ridge National Laboratory, Tennessee, USA
2010 Tianhe-1A 2,507 PFLOPS National Supercomputing Center, Tiencin, Chińska Republika Ludowa
2011 K computer 8,162 PFLOPS Fujitsu, Riken, Kobe, Japonia
10,51 PFLOPS
2012 Sequoia 16,32 PFLOPS IBM, Lawrence Livermore National Laboratory, Kalifornia, USA
Titan 17,59 PFLOPS Cray, Oak Ridge National Laboratory, Tennessee, USA
2013 Tianhe-2 33,86 PFLOPS NUDT, Chińska Republika Ludowa

Planowane superkomputery[edytuj | edytuj kod]

Departament Energii Stanów Zjednoczonych zamówił dwa superkomputery, które mają rozpocząć działanie w 2017 roku: Summit, o mocy obliczeniowej 150-300 PFLOPS, oraz Sierra, o mocy obliczeniowej 100 PFLOPS[7].

Chiny planują rozbudowę komputera Tianhe-2 do 100 PFLOPS w 2015 roku[8].

Fujitsu zamierza wybudować do 2017 roku następcę K-computera, o mocy 100 PFLOPS[9].

Przy obecnym tempie rozwoju, pierwsze superkomputery o wydajności powyżej 1 eksaflops (1018, trylion FLOPS) powinny zostać zbudowane około 2019 roku[10][11]. Według Intel Corporation, obecne tempo rozwoju będzie zachowane przynajmniej do 2029 roku, kiedy powstaną komputery o wydajności zettaflops (1021, tryliard FLOPS)[12].

Rynek superkomputerów[edytuj | edytuj kod]

W 2012 roku rynek superkomputerów miał wartość 11,1 mld $. Największymi producentami byli IBM (32% rynku), Hewlett-Packard (30,8%) i Dell (13,5%). Poniższa tabela przedstawia wartość rynku superkomputerów w ostatnich latach[13]:

Segment rynku 2011 2012 Zmiana
2011/2012
>500 000$ 4,3 mld $ 5,6 mld $ +29,3%
250 000$ – 499 000$ 1,2 mld $ 1,2 mld $ -2,2%
100 000$ – 249 000$ 3,5 mld $ 3,0 mld $ -14,3%
<100 000$ 1.2 mld $ 1,2 mld $ +1,2%
Suma 10,3 mld $ 11,1 mld $ +7,7%

Budowa[edytuj | edytuj kod]

Elementy architektury Blue Gene: chip, karta, węzeł, szafa, system
Pojedynczy węzeł Blue Gene/P

Współczesne superkomputery uzyskują swoją wydajność dzięki połączeniu wielu tysięcy procesorów i zrównoleglaniu wykonywanych obliczeń. Z powodów ekonomicznych stosuje się procesory dostępne w produkcji masowej, ponieważ koszty zaprojektowania i wyprodukowania nowych typów procesorów są znacznie wyższe niż koszty produkcji superkomputerów[nota 2][14][15]. Aby umożliwić efektywne wykorzystanie mocy obliczeniowej tych procesorów, używa się specjalnie zaprojektowanej pamięci hierarchicznej i najwydajniejszych dostępnych połączeń do przesyłania danych pomiędzy nimi. Z powodu takiej architektury, superkomputery mogą jednak osiągać wysoką wydajność jedynie dla obliczeń, które dają się w dużym stopniu zrównoleglić.

Zastosowanie[edytuj | edytuj kod]

Superkomputery są używane w armii, badaniach naukowych i biznesie. Instytuty naukowe udostępniają czas swoich komputerów recenzowanym projektom naukowym, których lista jest często publicznie dostępna. Przykładowo na komputerach w ICM prowadzone są symulacje astrofizyczne, biochemiczne, hydrologiczne, epidemiologiczne i aerodynamiczne, jak również badania należące do teorii liczb i algebry liniowej[16].

Przykładowe zastosowania superkomputerów to:

Superkomputery w Polsce[edytuj | edytuj kod]

Najszybszym superkomputerem w Polsce jest Zeus[25] z ACK Cyfronet na Akademii Górniczo-Hutniczej w Krakowie. Maszyna działa pod kontrolą systemu operacyjnego Scientific Linux, jej efektywna moc obliczeniowa wynosi niemal 267 TFLOPS i jest wykorzystywana do obliczeń naukowych, m.in. z zakresu chemii i fizyki.

Kolejne największe superkomputery w Polsce to[25]:

Alternatywne rozwiązania[edytuj | edytuj kod]

W zależności od typu problemu obliczeniowego, rozwiązanie go w sposób rozproszony może nakładać różne ograniczenia na architekturę i wydajność komunikacji pomiędzy poszczególnymi węzłami. W niektórych przypadkach superkomputery nie są najefektywniejszym rozwiązaniem i stosuje się rozwiązania alternatywne.

Projekty internetowe[edytuj | edytuj kod]

Logo Folding@home
Logo BOINC
 Osobny artykuł: Projekt internetowy.

Istnieje szereg problemów obliczeniowych, które można podzielić na wiele niezależnych, mniejszych zadań do wykonania. Takie problemy można rozwiązywać przy użyciu dużej ilości zwykłych komputerów, podłączonych do Internetu. Powstało kilka projektów działających na tej zasadzie. Uczestnicy takich projektów ściągają na swoje komputery odpowiedni program, który uruchamia się w czasie gdy komputer nie jest wykorzystywany i wykonuje zadania zlecone przez system zarządzający. W największych takich projektach biorą udział setki tysięcy ochotników, tworząc wirtualne superkomputery przewyższające wydajnością największe pojedyncze maszyny. Największe takie projekty to:

  • Bitcoinkryptowaluta Bitcoin może być generowana (ang. mining) na komputerach użytkowników poprzez uruchomienie specjalnego algorytmu. Od 2013 roku większość nowych bitcoinów jest generowana za pomocą wyspecjalizowanych układów ASIC, które nie mogą realizować żadnego innego algorytmu. Dlatego choć moc obliczeniowa sieci bitcoinów jest szacowana na ponad 1 zettaflops[26], to nie przekłada się to na żadne inne zastosowania. Szacując jednak że większość używanych układów ma wydajność energetyczną rzędu 100-1000 megahash/J[27], a cała sieć generuje ponad 100 petahash/s, sieć bitcoin musi zużywać 100-1000 megawatów prądu. Jest to więc projekt większy od największych superkomputerów.
  • Folding@home – projekt badania procesów zwijania białek. W 2014 roku dysponował mocą ponad 40 PFLOPS[28] i jest odnotowany w Księdze Guinnessa jako największy klaster komputerowy na świecie[29].
  • BOINC – projekt łączący komputery do różnych obliczeń, zapoczątkowany przez projekt SETI@home. Pracuje równolegle nad kilkudziesięcioma niezależnymi zagadnieniami. Sumaryczna moc obliczeniowa jaką dysponuje, to ponad 110 PFLOPS[30].
  • GIMPS – projekt poszukiwania liczb Mersenne’a. Dysponuje mocą obliczeniową 190 TFLOPS[31].
  • Distributed.net – projekt obliczeń teorioliczbowych, w szczególności badania możliwości łamania współczesnych szyfrów blokowych.

Farmy serwerów i botnety[edytuj | edytuj kod]

Farma serwerów to zbiór luźno powiązanych ze sobą serwerów, współpracujących w celu realizacji jednego zadania. Stosuje się je w różnorodnych zastosowaniach komercyjnych, takich jak wyświetlanie spersonalizowanych stron w wyszukiwarkach internetowych i serwisach społecznościowych, czy rendering filmów 3D. Moc obliczeniowa takich farm może znacznie przewyższać moce obliczeniowe największych superkomputerów. Google i Microsoft posiadają setki tysięcy serwerów[32], których łączna moc obliczeniowa jest szacowana na dziesiątki PFLOPS[33]. Również największe botnety mają większą moc obliczeniową niż liderzy TOP500 (np. Storm botnet składający się z 1,9 mln komputerów[34]).

Systemy dedykowane[edytuj | edytuj kod]

Jeden z węzłów maszyny EFF DES cracker do łamania szyfrów DES.

Na liście TOP500 umieszczone są jedynie komputery ogólnego zastosowania, na których można efektywnie wykonywać testy LINPACK. Do konkretnych zastosowań buduje się jednak czasem urządzenia dedykowane, efektywne w rozwiązywaniu tylko jednego, wybranego problemu. Pozwala to uzyskać większą efektywność i zmniejszyć koszty, za cenę uniwersalności. Przykładem takich urządzeń są:

Zobacz też[edytuj | edytuj kod]

Wikimedia Commons

Adnotacje[edytuj | edytuj kod]

  1. Pierwsze komputery wykonywały tylko operacje na liczbach całkowitych, dlatego ich szybkość podana jest w operacjach na sekundę (OPS). Współcześnie jednak znaczna większość zastosowań superkomputerów wymaga wykonywania operacji na liczbach zmiennoprzecinkowych, dlatego porównuje się je używając miary FLOPS. Nie ma oczywistego przelicznika pomiędzy tymi miarami, choć każda operacja zmiennoprzecinkowa może w szczególności być użyta jako całkowitoliczbowa.
  2. Koszt budowy komputera Tianhe-1A wyniósł około 88 milionów dolarów, podczas gdy inwestycje w zaprojektowanie i wdrożenie do produkcji procesorów Itanium 2 wyniosły 3 miliardy dolarów.

Przypisy

  1. New Japanese supercomputer is the world’s most powerful. geek.com, 20 czerwca 2011. [dostęp 24 listopada 2011].
  2. China’s Tianhe-2 Supercomputer Takes No. 1 Ranking on 41st TOP500 List (ang.). TOP500, 2013-06-17. [dostęp 2013-06-17].
  3. Apple iPad 3 benchmark tests (ang.). PhoneArena, 2012-03-20. [dostęp 2012-07-05].
  4. Najszybsze superkomputery świata w czerwcu 1993, miejsca 200-500 (ang.). TOP500.
  5. Historyczne superkomputery w Computer History Museum. Computerhistory.org. [dostęp 2010-10-31].
  6. Listy najszybszych superkomputerów w kolejnych latach na Top500.. Top500.org. [dostęp 2012-11-13].
  7. Maciej Gajewski: USA budują dwa potężne superkomputery. Chip.pl, 17 listopada 2014. [dostęp 25 listopada 2014].
  8. Nicole Hemsoth: Peek into China’s Plans for Top Supercomputer Shows No Slowdown (ang.). HPCWire, 20 marca 2014. [dostęp 25 listopada 2014].
  9. Tiffany Trader: Fujitsu Targets 100 Petaflops Supercomputing (ang.). HPCWire, 12 sierpnia 2014. [dostęp 25 listopada 2014].
  10. Projected Performance Development (ang.). TOP500. [dostęp 9 września 2011].
  11. Patrick Thibodeau: IBM breaks petaflop barrier. W: InfoWorld [on-line]. 2008-06-10.
  12. IDF: Intel says Moore’s Law holds until 2029 (ang.). W: Heise Online [on-line]. The H, 2008-04-04. [dostęp 9 września 2011].
  13. Tiffany Trader: IDC: Supercomputing Spending Jumps 30 Percent (ang.). HPC Wire, 2013-03-25. [dostęp 2013-03-26].
  14. China Makes World’s Fastest Supercomputer (ang.). International Business Times, 28 października 2010. [dostęp 9 września 2011].
  15. Intel strengthens investment in Intel Itanium architecture with hiring of HP design team (ang.). 16 grudnia 2004. [dostęp 9 września 2011].
  16. Otwarte granty ICM. Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego. [dostęp 9 września 2011].
  17. The Problem with Cellulosic Ethanol (ang.). Oak Ridge National Laboratory. [dostęp 8 listopada 2011].
  18. Simulating Turbulent Combustion Speeds Design of Power and Propulsion Devices (ang.). Oak Ridge National Laboratory. [dostęp 8 listopada 2011].
  19. Boeing Uses Jaguar to Validate Aircraft Modeling Applications (ang.). Oak Ridge National Laboratory. [dostęp 8 listopada 2011].
  20. BMI Uses Jaguar to Overhaul Long-Haul Trucks (ang.). Oak Ridge National Laboratory. [dostęp 8 listopada 2011].
  21. Breakthrough Fusion Simulations Shed Light on Plasma Confinement (ang.). Oak Ridge National Laboratory. [dostęp 8 listopada 2011].
  22. Supercomputers Aid in Understanding the Basic Building Blocks of Nature (ang.). Oak Ridge National Laboratory. [dostęp 8 listopada 2011].
  23. Packing the ions (ang.). Oak Ridge National Laboratory. [dostęp 8 listopada 2011].
  24. Gordon Bell Prize Awarded to Research Group Using K Supercomputer (ang.). HPC wire, 21 listopada 2011. [dostęp 24 listopada 2011].
  25. 25,0 25,1 Najszybsze superkomputery na świecie w rankingu Top500 (ang.). TOP500, 2013-06-17. [dostęp 2013-06-17].
  26. Bitcoin Network (ang.). [dostęp 2 lipca 2014].
  27. Mining hardware comparison (ang.). [dostęp 2 lipca 2014].
  28. Folding@home - The Science (ang.). [dostęp 10 grudnia 2014].
  29. Joshua Topolsky: Folding@Home recognized by Guinness World Records (ang.). Engadget, 31 października 2007. [dostęp 9 września 2011].
  30. Statystyki BOINC (ang.). [dostęp 10 grudnia 2014].
  31. Strona domowa projektu GIMPS (ang.). [dostęp 10 grudnia 2014].
  32. Rich Miller: Who Has the Most Web Servers? (ang.). Data Center Knowledge, 14 maja 2009. [dostęp 9 września 2011].
  33. Brough Turner: Google Surpasses Supercomputer Community, Unnoticed? (ang.). 20 maja 2009. [dostęp 9 września 2011].
  34. Gaudin, Sharon. "Storm Worm Botnet Attacks Anti-Spam Firms", InformationWeek, 18 września 2007
  35. „DES Cracker” Machine (ang.). Electronic Frontier Foundation. [dostęp 9 września 2011].
  36. Tetsu Narumi: MDGRAPE (Molecular Dynamics GRAvity PipE) (ang.). 31 października 2006. [dostęp 9 września 2011].
  37. John Markoff: Herculean Device for Molecular Mysteries (ang.). The New York Times, 8 lipca 2008. [dostęp 9 września 2011].
  38. Mariusz Błoński: Superkomputer Anton - mistrz zaginania białek. KopalniaWiedzy, 18 października 2010. [dostęp 9 września 2011].