0 (liczba)

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacji, wyszukiwania
Disambig.svg Na tę stronę wskazuje przekierowanie z „zero”. Zobacz też: inne znaczenia słowa "zero".
0
0 1 2 3 4 5 6 7 8 9 10

0 10 20 30 40 50 60 70 80 90 100

faktoryzacja brak
dzielniki brak
zapis rzymski brak
dwójkowo 0
ósemkowo 0
szesnastkowo 0
Wartości funkcji teorioliczbowych
φ(0) = nieokreślony τ(0) = nieokreślony
σ(0) = nieokreślony π(0) = 0
μ(0) = nieokreślony M(0) = nieokreślony

Zero (zapisywane jako 0) – element neutralny dodawania; najmniejsza nieujemna liczba. To, czy zero jest uznawane za liczbę naturalną, jest kwestią umowy – czasem włącza się, a czasem wyklucza się je z tego zbioru. Zero nie jest ani liczbą pierwszą, ani liczbą złożoną.

Pierwszy raz symbol ten został użyty przez matematyków hinduskich jako oznaczenie braku czegoś. W większości kalendarzy nie ma roku zerowego. Rok przed 1 rokiem naszej ery nazywany jest 1 rokiem przed naszą erą.

Historia[edytuj | edytuj kod]

Symbol zera był wykorzystywany w systemach zapisu liczb, w których pozycja cyfry miała znaczenie. Dla przykładu liczba 20075 z odstępami zamiast zer staje się nieczytelna (2  75) i może zostać łatwo pomylona z liczbą 2075 (2 75) i 275 .

Pierwszy raz system pozycyjny do zapisu liczb wykorzystali mieszkańcy Sumeru i Elamu ok. roku 3200 p.n.e. Zapis opierał się na liczbie 60 (kopa). Początkowo brak wartości w jednym z rzędów oznaczano pustym miejscem. Babilończycy odziedziczyli ten sposób zapisu. Archeolodzy odnaleźli glinianą tabliczkę, pochodzącą z okresu starobabilońskiego, datowaną na lata 1900-1600 p.n.e. (XV wiek p.n.e.). Umieszczono na niej listę trójek pitagorejskich. Brak cyfry w jednym z rzędów oznaczono na niej pustym miejscem.

Rzymianie w obliczeniach posługiwali się abakusem. W miejscu, gdzie miało być zero, pozostawiali pustą przestrzeń. Później, m.in. Grecy, do liczenia używali zwykłych stołów z krążkami z odpowiednimi cyframi. W miejsce zera wstawiano pusty krążek bez żadnej liczby. Kiedy pod koniec średniowiecza zaczęto wykonywać działania na dostępnym już i tanim papierze, w miejsce zera rysowano zwykłe kółko, które miało przypominać krążek bez cyfry.

Przed rokiem 300 p.n.e. zaadaptowano jako zero jeden z symboli interpunkcyjnych – podwójną ukośną kreseczkę. Jednak był on wykorzystywany tylko jako cyfra zero, a nie jako liczba.

W starożytnej Grecji status zera jako liczby budził kontrowersje: pytano "czy nic może być czymś"? Kwestia ta wiązała się z filozoficzną dysputą dotyczącą możliwości istnienia próżni. Niejasna interpretacja zera stała się też jedną z podstaw sformułowania paradoksów Zenona z Elei. Dyskusja na temat sensu zera ożyła ponownie w średniowieczu, gdzie nabrała dodatkowego wymiaru religijnego.

W roku 130 Ptolemeusz pod wpływem Hipparchosa zaczął używać symbolu oznaczającego zero. Znak ten miał postać kółka z poziomą linią na górze. Ptolemeusz wykorzystywał zero razem z sześćdziesiątkowym systemem liczbowym opartym na alfabecie greckim. Szczególne było tutaj wykorzystywanie zera samodzielnie. Dla przykładu, różnice położenia kątowego Słońca i Księżyca podczas zaćmienia naszej gwiazdy, Ptolemeusz w swoim dziele Almagest podawał jako 0 | 0 0. W wielu późniejszych tekstach napisanych w Bizancjum zero przyjęło formę greckiej litery omikron (ο) – wcześnie była ona używana do oznaczenia liczby 70.

Kilka wieków przed Ptolemeuszem zera jako liczby zaczęli używać Olmekowie. Przypuszcza się, że już ok. 400 p.n.e. wykorzystywali do tego symbol przypominający muszlę. Pełne potwierdzenie tego faktu dotyczy dopiero roku 40 p.n.e. Potem zero Olmeków zostało przejęte przez Majów w ich systemie liczbowym.

W rzymskim zapisie liczbowym zero nie było używane, jednak średniowieczni mnisi znali to pojęcie pod łacińską nazwą nullae – nic. Zero było wykorzystywane przy obliczaniu daty Wielkanocy. Przykładem są tu dzieła Dionysiusa Exiguusa pochodzące z roku 525. W roku 725 Beda (lub jeden z jego współpracowników) wykorzystał literę N do zapisu zera w połączeniu z liczbami rzymskimi.

Współczesny symbol zero pochodzi z Indii. Dnia 25 sierpnia 458 roku członkowie odłamu dźinistów ogłosili traktat Lokavibhaaga. Zero nazywano w nim "śuunya", co znaczy pusty. Innym z tekstów zawierających tę liczbę stał się wierszowany podręcznik Brahmasphutasiddhanta napisany w roku 628 przez hinduskiego matematyka i astronoma Brahmaguptę. Pomysł okazał się trafny i szybko został przyjęty w Kambodży, Chinach, a potem trafił do świata arabskiego. Uczeni z kręgu islamskiego nadali zeru jego nazwę, która pochodzi od arabskiego słowa sifr (صفر) oznaczającego pusty.

Europejczycy zaznajomili się z zerem w XI wieku za sprawą papieża-uczonego Sylwestra II, który starał się je popularyzować, a następnie, już na szerszą skalę, podczas krucjat do Ziemi Świętej w XII wieku. W roku 1202 we Włoszech Fibonacci wydał podręcznik arytmetyki Liber abaci, w którym posługiwał się słowem zephirum oznaczającym zero. Współczesna nazwa tej liczby stała się powszechna od roku 1491.

Człowiek czytający tekst nie zawsze jest w stanie odróżnić cyfrę 0 od litery O, w początkach historii komputerów operatorzy przepisujący ręcznie pisane programy często mylili się zamieniając 0 z O, a w systemach komputerowych litera oraz cyfra są zupełnie różnymi znakami, co oznacza konieczność nadania im rozróżnialnych kształtów. Jako pierwszy taki zapis wprowadził IBM w terminalu ekranowym IBM 3270. Wewnątrz zera umieszczono kropkę. Inna, stosowana w wielu urządzeniach, wersja zero ma w środku przekreślenie. Zostało ono wprowadzone do standardu ASCII wywodzącego się od dalekopisów. Autorzy tego znaku nie wiedzieli jednak, że Norwegowie oraz Duńczycy używają podobnego symbolu Ø jako litery. Zwyczaj ten obecnie zanika.

Etymologia w języku polskim[edytuj | edytuj kod]

Jest to wyraz zapożyczony ze średniowiecznej łaciny, gdzie miał postać zephirum i znaczenie "cyfra". Wyrazy "cyfra" i "szyfr" wywodzą się zresztą z tego samego źródłosłowu, lecz za pośrednictwem języków niemieckiego i francuskiego. Z kolei wyraz łaciński wywodzi się z arabskiego ṣifr – "zero, pustka, próżnia".

Zero jako symbol[edytuj | edytuj kod]

Zero symbolizuje nicość i bezwartościowość. W odniesieniu do szeregu liczb – symbolizuje też początek[1].

Zero w matematyce[edytuj | edytuj kod]

Należy rozróżnić kilka pojęć w matematyce występujących pod wspólną nazwą zero.

W żargonie matematycznym termin zero funkcji używany jest czasem jako synonim miejsca zerowego funkcji.

Symbol 0[edytuj | edytuj kod]

Symbol 0 występuje w większości działów współczesnej matematyki.

  • W algebrze symbol 0 może służyć do oznaczania elementu neutralnego działania w grupie, najczęściej dodawania.
  • W teorii mnogości symbol 0 używany jest do oznaczania mocy (liczby elementów) zbioru pustego.
  • W myśl postulatów Peano dla liczb naturalnych, symbolem 0 oznacza się najmniejszą liczbę naturalną. Niektóre definicje liczb naturalnych (nie związane z logiką i teorią mnogości) nie obejmują jednak pojęcia zera.

Własności liczby rzeczywistej zero[edytuj | edytuj kod]

Wynik dzielenia przez zero jest nieokreślony: definicja dzielenia wymaga, aby dzielnik był różny od zera.

Zgodnie z definicją potęgowania rzeczywista liczba dodatnia podniesiona do potęgi zero daje jeden:

 a^0=1.

Wartość 0^0 jest w zależności od przyjętej konwencji – niezdefiniowana lub też równa 1.

Logarytm przy dowolnej większej od zera podstawie z jedności jest równy zero:

 \log_a 1=0

Zero w informatyce[edytuj | edytuj kod]

Ludzie liczą zwykle przedmioty zaczynając od jedności. Jednak w językach programowania popularne jest liczenie od zera. Wynika to z faktu wykorzystania licznika do określania adresu elementu:

Adresowanie elementów tabeli
Numery elementów: 0 1 2 3 4 ...
Komórka pamięci: n n+1 n+2 n+3 n+4 n+...
dla n=23 23 24 25 26 27 ...

Oczywiście w rzeczywistości wzór dla tablicy jednowymiarowej byłby: address+index*sizeof(type)
Gdzie address oznacza adres pierwszego (zerowego) elementu tablicy (czyli nota bene jej początek), sizeof(x) oznacza rozmiar typu x w bajtach, a index oznacza indeks elementu do którego chcemy się odwołać.

Jeżeli pierwszy element jest w 23 komórce pamięci, to element 5 znajduje się w 27. Jeżeli odejmiemy te liczby, okaże się, że 5 elementowi odpowiada konieczność dodania 4, aby uzyskać jego adres w pamięci. Zerowaniem określa się czasami w informatyce czynność wypełniania obszaru pamięci zerami.

Zero a skale pomiarowe[edytuj | edytuj kod]

Sposób określenia zera w pomiarze wielkości fizycznej jest związany z rodzajem skali pomiarowej.

Zobacz też[edytuj | edytuj kod]

Przypisy

  1. Leksykon symboli Herdera. Warszawa: ROK Corporation SA, 1992. ISBN 83-85344-23-3.

Bibliografia[edytuj | edytuj kod]

  • Georges Ifrah: Dzieje liczby, czyli historia wielkiego wynalazku. Wrocław: Ossolineum, 1990. ISBN 83-04-03218-X.
  • Georges Ifrah: The Universal History of Numbers: From Prehistory to the Invention of the Computer. Tłumaczenie: David Bellos, E. F. Harding, Sophie Wood i Ian Monk. Nowy Jork: John Wiley & Sons Inc., 2000. ISBN 0-471-39671-0.

Linki zewnętrzne[edytuj | edytuj kod]

Wikimedia Commons
WiktionaryPl nodesc.svg
Zobacz hasło 0 w Wikisłowniku