Apache Hadoop

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj
Apache Hadoop
Framework
Logo Apache Hadoop
Logo programu
Autor Apache Software Foundation
System operacyjny Wieloplatformowa
Język programowania Java
Pierwsze wydanie 27 grudnia 2011; 5 lat temu[1]
Aktualna wersja stabilna 2.7.3 / 25 sierpnia 2016; 4 miesiące temu[2]
Aktualna wersja testowa 3.0.0-alpha1 3 września 2016; 3 miesiące temu
Licencja Apache License 2.0
Strona internetowa

Apache Hadoopotwarta platforma programistyczna napisana w języku Java przeznaczona do rozproszonego składowania i przetwarzania wielkich zbiorów danych przy pomocy klastrów komputerowych. Jest jednym z projektów rozwijanych przez fundację Apache. Wszystkie moduły Hadoop zostały zaprojektowane z założeniem, że awarie sprzętowe są rzeczą naturalną i powinny być automatycznie obsługiwane przez framework.

Apache Hadoop składa się z następujących modułów:

  • Hadoop Common – biblioteki i narzędzia używane przez pozostałe moduły;
  • Hadoop Distributed File System (HDFS) – rozproszony system plików[3];
  • Hadoop YARN – platforma do zarządzania zasobami klastra;
  • Hadoop MapReduce – implementacja paradygmatu MapReduce do przetwarzania dużych ilości danych.

Określenie Hadoop często jest używane nie tylko w odniesieniu do powyższych modułów, ale także do całego ekosystemu aplikacji, które mogą być używane w połączeniu z Hadoop: Apache Pig, Apache Hive, Apache HBase, Apache Phoenix, Apache Spark, Apache ZooKeeper, Cloudera Impala, Apache Flume, Apache Sqoop, Apache Oozie, Apache Storm.

Moduły MapReduce i HDFS zostały zainspirowane materiałami Google na temat ich implementacji MapReduce i ich rozproszonego systemu plików Google File System.

Jeszcze zanim osiągnął wydanie stabilne, był już wykorzystywany w poważnych zastosowaniach (Amazon, AOL, Facebook, Yahoo).

Autorem projektu jest Doug Cutting[4].

Przypisy

Linki zewnętrzne[edytuj]