Informacja

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacji, wyszukiwania

Informacja (łac. informatio – przedstawienie, wizerunek; informare – kształtować, przedstawiać) – termin interdyscyplinarny, definiowany różnie w różnych dziedzinach nauki; najogólniej – właściwość pewnych obiektów[1], relacja między elementami zbiorów pewnych obiektów, której istotą jest zmniejszanie niepewności (nieokreśloności)[2].

Można wyróżnić dwa podstawowe punkty widzenia informacji[3]:

1. obiektywny – informacja oznacza pewną właściwość fizyczną lub strukturalną obiektów (układów, systemów), przy czym jest kwestią dyskusyjną[4] czy wszelkich obiektów, czy jedynie systemów samoregulujących się (w tym organizmów żywych),
2. subiektywny – informacja istnieje jedynie względem pewnego podmiotu, najczęściej rozumianego jako umysł, gdyż jedynie umysł jest w stanie nadać elementom rzeczywistości znaczenie (sens) i wykorzystać je do własnych celów.

Wyróżnia się trzy, powiązane ze sobą, koncepcje (teorie) informacji[1][2], związane z jej aspektami semiotycznymi[5]:

1. statystyczno-syntaktyczną z probabilistycznym i składniowym,
2. semantyczną ze znaczeniowym,
3. pragmatyczną z wartościowym (cennościowym) – w odniesieniu do problemu podejmowania przez jej odbiorcę decyzji związanych z jego celem.

Informacja obiektywna[edytuj | edytuj kod]

W cybernetyce i teorii informacji najbardziej ogólnie: każde rozpoznanie stanu układu, odróżnialnego od innego stanu tego układu (stanu wyróżnionego)[6]; wyróżnienie pewnego stanu wyróżnionego (odróżnialnego) z repertuaru (zbioru stanów wyróżnionych)[7]. „...w pojęciu informacji istotne jest nie samo zaistniałe zjawisko, lecz jego stosunek do zbioru zdarzeń, które mogły były zaistnieć”[8].

Można odróżnić[9]:

1. informację swobodną, kiedy możliwości (stany, zdarzenia) uważamy za abstrakcyjne i nie przypisujemy im żadnego znaczenia fizycznego,
2. informację związaną, kiedy możliwości (stany, zdarzenia) mogą być interpretowane jako mikrostany (lub zbiory mikrostanów[10]) pewnego układu fizycznego.

Informacja zawarta w stanach układu kwantowego to informacja kwantowa.

Bardziej szczegółowo można rozpatrywać informację:

1. w odniesieniu do procesu komunikowania się (systemu przekazywania informacji, toru sterowniczego),
2. w odniesieniu do budowy układu.

Informacja w odniesieniu do procesu komunikowania się[edytuj | edytuj kod]

Informacja jest to wyróżnienie przez pewien układ informacyjny (odbiorcę), ze swojego repertuaru, pewnego stanu wyróżnionego (przez odróżnienie go od innego stanu wyróżnionego), odbijające wyróżnienie stanu wyróżnionego układu informacyjnego będącego nadawcą[6] (Definicja 1).

O informacji można tu mówić jedynie w odniesieniu do układu, który jest zdolny ją odebrać (odbić wyróżnienie stanu wyróżnionego nadawcy), i tylko w takim zakresie, w jakim jest zdolny. Różne układy informacyjne mogą odbijać (rozpoznawać) różne stany wyróżnione z różnych repertuarów.

W tym znaczeniu informacja ma charakter relatywny i jest nazywana informacją względną.

Informacja przekazywana w postaci komunikatu nie jest wewnętrzną własnością tego komunikatu, lecz zależy od zbioru (repertuaru), z którego ten komunikat pochodzi[11]. Można mówić o różnorodności takiego zbioru[12], której miarą jest entropia informacyjna[13]. Przekazanie komunikatu, czyli wyróżnienie z repertuaru pewnego stanu wyróżnionego lub zbioru stanów wyróżnionych stanowi ograniczenie różnorodności – relację między zbiorem-repertuarem a zbiorem stanów wyróżnionych przez komunikat[14] (informację).

„...informacja (...) jest różnorodnością, jaką jeden obiekt zawiera o innym obiekcie, jest wzajemną i względną różnorodnością. (...) informację można określić jako odbitą różnorodność, jako różnorodność, którą obiekt odbijający zawiera o obiekcie odbijanym...”[15].

Według Mariana Mazura:

Informacja jest to transformacja poprzeczna komunikatów w torze sterowniczym, tj. zmiana pewnego stanu wyróżnionego w pewnym punkcie toru sterowniczego (systemu przekazywania informacji) na inny stan wyróżniony w tym samym punkcie; przyporządkowanie sobie tych stanów (relacja między nimi)[16][17][18] (Definicja 2).

Przykład 1.: Na początku toru sterowniczego mogą zachodzić stany wyłącznika: wyłączony, włączony; w miejscu pośrednim toru stany napięcia: zerowe, niezerowe; na końcu toru stany żarówki: nieświecąca, świecąca. Informacjami są transformacje: wyłącznik wyłączony – wyłącznik włączony, napięcie zerowe – napięcie niezerowe, żarówka nieświecąca – żarówka świecąca. Natomiast transformacje: wyłącznik wyłączony – napięcie zerowe – żarówka nieświecąca i wyłącznik włączony – napięcie niezerowe – żarówka świecąca są transformacjami wzdłużnymi komunikatów w torze sterowniczym, tj. zmianami stanów wyróżnionych w pewnym punkcie toru (systemu przekazywania informacji) na stany wyróżnione w innym punkcie toru (przyporządkowaniami sobie tych stanów, relacjami między nimi) i nazywane są kodami.

Przykład 2.: Informacja o odległości „w terenie” to relacja między długością danego odcinka, a długością odcinka wzorcowego (jednostki miary) np. 3 km : 1 km = 3. Informacja ta może być zakodowana na mapie, jako relacja między długością odcinka na mapie a długością odcinka wzorcowego mapy np. 3 cm : 1 cm = 3. Kodem jest tu relacja między długością odcinka wzorcowego mapy a długością odcinka wzorcowego „w terenie” – skala (podziałka) mapy np. 1 cm : 1 km = 1:100 000.

Wyróżnienie przez układ (nadawcę lub odbiorcę) pewnego swojego stanu wyróżnionego (odróżnienie go od innego stanu wyróżnionego), o którym mowa w definicji pierwszej, skutkuje właśnie ustanowieniem relacji między tymi stanami, o której mowa w definicji drugiej.

Ujmowana ilościowo informacja (ilość informacji) o stanach wyróżnionych (możliwościach, zdarzeniach, wartościach zmiennej losowej, przewidywanych wynikach doświadczenia, strukturze układu modelowanego, treści komunikatu nadanego) β zawarta w stanach wyróżnionych (możliwościach, zdarzeniach, wartościach zmiennej losowej, otrzymanych wynikach doświadczenia, strukturze modelu, treści komunikatu odebranego) α, to usunięta przez α część nieokreśloności (entropii informacyjnej) β[19].

To, ile informacji zawierają komunikaty, zależy od stanu niewiedzy odbiorcy, co do nadawcy. Im większą zmianę w nieokreśloności (niewiedzy) odbiorcy, co do nadawcy, wywołuje komunikat odebrany, tym dostarcza (zawiera) więcej informacji[5].

Informacja w odniesieniu do budowy układu[edytuj | edytuj kod]

Informacja jest to stopień uporządkowania (lub zorganizowania) układu[6] (Definicja 3).

W tym znaczeniu informacja dotyczy struktury układu i jest nazywana informacją strukturalną.

Według Mariana Mazura:

Informacja to struktura (układ relacji wiążących elementy układu)[20] (Definicja 4).

Ujmowana ilościowo taka informacja to różnica między entropią (odpowiednio termodynamiczną lub strukturalną) układu maksymalną a entropią (odpowiednio termodynamiczną lub strukturalną) układu daną, czyli negentropia (termodynamiczna lub strukturalna) układu[21].

Informację strukturalną (strukturę) niekiedy uważa się[22][23] za jeden z trzech składników każdego układu (czyli pośrednio całej rzeczywistości). Każda rzecz, proces czy zjawisko może być bowiem rozpatrywane w wymiarze materialnym (czyli pewnej liczby cząstek), tzw. „energetycznym” (czyli ruchu fizycznego, którego miarą jest energia) i strukturalnym (informacyjnym).

Miary ilości informacji[edytuj | edytuj kod]

Ilościowym aspektem informacji zajmuje się statystyczno-syntaktyczna teoria informacji Hartleya i Shannona. Miary ilości informacji są w niej oparte na prawdopodobieństwie zajścia zdarzenia. Jako miarę ilości informacji przyjmuje się wielkość niepewności, która została usunięta w wyniku zajścia zdarzenia (otrzymania komunikatu)[24]. Zdarzenia (komunikaty) mniej prawdopodobne dają więcej informacji. To podejście pomija znaczenie (semantykę), jakie niesie komunikat, a skupia się jedynie na jego składni (syntaktyce).

1. Ilość informacji otrzymanej przy zajściu zdarzenia xi (entropia tego zdarzenia, entropia indywidualna) to (Hartley 1928):

I_i = h_i = \log_r \frac{1}{p_i} = - \log_r {p_i}
gdzie:
Ii – ilość informacji otrzymanej przy zajściu zdarzenia xi,
pi – prawdopodobieństwo zajścia zdarzenia xi,
r – podstawa logarytmu.

W teorii informacji najczęściej stosuje się logarytm o podstawie r = 2, wówczas jednostką informacji jest bit (szanon[25]). Przy r = e jednostką jest nat (nit), natomiast przy r = 10 – dit (hartley).

2. Przeciętna ilość informacji przypadająca na zajście zdarzenia z pewnego zbioru n zdarzeń (entropia bezwarunkowa tego zbioru, entropia przeciętna) jest średnią arytmetyczną ważoną ilości informacji otrzymywanej przy zajściu poszczególnych zdarzeń, gdzie wagami są prawdopodobieństwa tych zdarzeń[26] (Shannon 1948):

H(X)=\sum_{i=1}^np_i\log_r \frac{1}{p_i}= - \sum_{i=1}^np_i\log_r {p_i}\,\!
gdzie:
H(X) – entropia bezwarunkowa zbioru X,
n – liczba zdarzeń w zbiorze,
pi – prawdopodobieństwo zajścia zdarzenia xi.

3. Ilość informacji o zdarzeniach ze zbioru X (wartościach zmiennej losowej X), np. komunikatach nadanych (stanach źródła informacji), zawarta w zdarzeniach ze zbioru Y (wartościach zmiennej losowej Y), np. komunikatach odebranych (stanach odbiorcy), tzw. informacja wzajemna, równa jest różnicy pomiędzy entropią bezwarunkową zbioru X (entropią źródła) a entropią zbioru X, jaka pozostaje po odebraniu komunikatu ze zbioru Y (entropią warunkową X pod warunkiem Y)[27]:

I(X;Y) = H(X) - H(X|Y) \,
gdzie:
I(X;Y) – informacja wzajemna Y o X,
H(X) – entropia bezwarunkowa zbioru X,
H(X|Y) – entropia warunkowa X pod warunkiem Y.

Gdy odebrany komunikat zmniejsza nieokreśloność X do zera (H(X|Y) = 0 \,), ilość przekazanej informacji jest równa entropii źródła I(X;Y) = H(X) \,. Także I(X;X) = H(X) \, (zawartość informacji w źródle, w zmiennej losowej, samoinformacja), gdyż H(X|X) = 0 \,.

Przenoszenie i przetwarzanie informacji[edytuj | edytuj kod]

Informacja może być przenoszona w czasie i przestrzeni[5]. Przenoszenie w czasie nazywamy magazynowaniem lub zapamiętywaniem, przenoszenie w przestrzeni – przekazem lub komunikowaniem. Przenoszenie informacji odbywa się za pośrednictwem obiektów fizycznych i zjawisk fizycznych zwanych nośnikami informacji. Magazynowanie związane jest najczęściej ze stanami wyróżnionymi obiektu fizycznego – podłoża zapisu, a przekaz ze stanami wyróżnionymi zjawiska fizycznego – sygnałami.

Problemami przetwarzania informacji zajmuje się informatyka.

Informacja subiektywna[edytuj | edytuj kod]

Znaczenie informacji – koncepcja semantyczna[edytuj | edytuj kod]

Wartość informacji – koncepcja pragmatyczna[edytuj | edytuj kod]

Kognitywistyka[edytuj | edytuj kod]

W tej perspektywie, informacja jest indywidualną lub grupową interpretacją otrzymanego ciągu sygnałów (np. dźwiękowych czy optycznych) i musi zawsze opisywać stan jakiejś dziedziny.

Podejście kognitywistyczno-systemowe w meta-teorii TOGA[28] daje nam ścisłe definicje rozróżniające dane, informacje, wiedzę i preferencje jako podstawowe funkcjonalne elementy procesów myślowych naturalnych i sztucznych (zobacz też: Sztuczna inteligencja). W tej systemowej interpretacji, informacja jest przetwarzana przez naszą wiedzę i w wyniku daje inną informację lub nową wiedzę. W zależności od tzw. indywidualnego systemu konceptualizacji, ten sam ciąg sygnałów/znaków (danych) może być źródłem różnych informacji dla różnych osób lub robotów.

Jeśli grupa ludzi lub społeczeństwo ma w pewnej dziedzinie ten sam system konceptualizacyjny (np. teorie, zbiory poglądów, definicje), to te same sygnały komunikacyjne odbierają w ten sam sposób, to znaczy dostarczają im one tą samą informację do przetwarzania.

Jeżeli danymi nazywamy wszystko, to co jest przetwarzalne (Gadomski), to informacja jest danymi, ale nie każde dane są informacją, np. „gołe” liczby są zawsze danymi, ale jeśli nadamy im znaczenie w określonej dziedzinie, to są też informacją, np. (5) i (5 stopni Celsjusza za naszym oknem).

Podejście kognitywistyczne jest też bliskie rozumieniu informacji w języku naturalnym i jakie jest przyjęte w zarządzaniu wiedzą.

Inne interpretacje[edytuj | edytuj kod]

Informacja i wiedza są obecnie uważane za nowy towar na rynku, podobny do dóbr materialnych czy energii. Równocześnie, ze względu na internet i inne masowe źródła informacji, obecne społeczeństwo globalne nazywane jest też społeczeństwem informacyjnym (Information Society). Tak zastosowane pojecie „informacji” dotyczy również wiedzy faktycznej lub domniemanej, a także reguł preferencji w różnych dziedzinach ważności i użyteczności. W tym sensie, informując kogoś o kimś lub czymś, zawiadamiamy go o faktach lub dzielimy się naszą wiedzą albo preferencjami na dany temat.

Pojęcie informacji stosuje również ekonomia informacji. Jednym z nurtów w tej dziedzinie jest analiza zachowania graczy na rynku z uwzględnieniem posiadanych przez nich informacji na temat oferowanych dóbr i innych cech rynku. Szczególnie, gdy rozkład informacji wśród graczy jest asymetryczny.

Zobacz też[edytuj | edytuj kod]

Wikiquote-logo.svg
Zobacz w Wikicytatach kolekcję cytatów
związanych z informacją

Przypisy

  1. 1,0 1,1 Klemens Szaniawski hasło Informacja w: Filozofia a nauka, 1987, s. 244.
  2. 2,0 2,1 Grzegorz Lissowski, hasło Informacja, w: Wielka Encyklopedia Powszechna, 2002, s. 126.
  3. Paweł Przybyłowicz Wstęp do teorii informacji i kodowania.
  4. Edward Kowalczyk, O istocie informacji, 1981, s. 18.
  5. 5,0 5,1 5,2 Stefan Mynarski, Elementy teorii systemów i cybernetyki, 1979, s. 141.
  6. 6,0 6,1 6,2 Krzysztof Boruń, hasło Informacja, w: Mały słownik cybernetyczny, pod red. M. Kempisty, 1973, s. 155.
  7. Marian Mazur, Cybernetyczna teoria układów samodzielnych, 1966, s. 35.
  8. Wiktor Głuszkow, Wstęp do cybernetyki, 1967, za: J. L. Kulikowski, Informacja i świat w którym żyjemy, 1978, s. 43.
  9. Léon Brillouin, Nauka a teoria informacji, 1969, s. 202-203.
  10. R. Bujakiewicz-Korońska, O przemianach energii i informacji w strukturach dyssypatywnych, 2000, s. 77.
  11. W. Ross Ashby, Wstęp do cybernetyki, 1963, s. 177.
  12. W. Ross Ashby, Wstęp do cybernetyki, 1963, s. 178.
  13. W. Ross Ashby, Wstęp do cybernetyki, 1963, s. 247.
  14. W. Ross Ashby, Wstęp do cybernetyki, 1963, s. 181.
  15. A. D. Ursuł Informacija, 1971 za: J. L. Kulikowski, Informacja i świat w którym żyjemy, 1978, s. 44.
  16. Marian Mazur, Cybernetyczna teoria układów samodzielnych, 1966, s. 35-37.
  17. Marian Mazur, Jakościowa teoria informacji, 1970, s. 70-71.
  18. Marian Mazur, Cybernetyka i charakter, 1976, s. 120-121.
  19. A. M. Jagłom, I. M. Jagłom, Prawdopodobieństwo i informacja, 1963, s. 91.
  20. Marian Mazur, Cybernetyczna teoria układów samodzielnych, 1966, s. 48-49.
  21. R. Bujakiewicz-Korońska, O przemianach energii i informacji w strukturach dyssypatywnych, 2000, s. 79.
  22. Marian Mazur, Cybernetyczna teoria układów samodzielnych, 1966, s. 49.
  23. Stefan Mynarski, Elementy teorii systemów i cybernetyki, 1979, s. 140.
  24. Stefan Mynarski, Elementy teorii systemów i cybernetyki, 1979, s. 155.
  25. szanon – Encyklopedia PWN.
  26. Stefan Mynarski, Elementy teorii systemów i cybernetyki, 1979, s. 156.
  27. Stefan Mynarski, Elementy teorii systemów i cybernetyki, 1979, s. 159.
  28. Zobacz: Meta-teoria TOGA (Top-down Object-based Goal-oriented Approach), Adam Maria Gadomski, 1993, TOGA Meta-Theory – Real-World Computational Philosophy & Goal-oriented Reasoning Framework and computational unified problem-solving methodology, Information Preferences Knowledge Paradigm: Meta-Ontology for Knowledge Engineering & Management, TOGA standards i HID – ENEA: Grupa Badan Kognitywistycznych Wysokiej Intelligencji i processow Decyzyjnych.