Teoria informacji

Wersja z dnia 18:47, 8 sty 2019 autorstwa Sw (dyskusja | edycje) (Infobox update)
(różn.) ← poprzednia wersja | przejdź do aktualnej wersji (różn.) | następna wersja → (różn.)
Teoria informacji
Polecane artykuły


Teoria informacji – dyscyplina zajmująca się problematyką informacji oraz metodami przetwarzania informacji, np. w celu transmisji lub kompresji. Niekiedy rozumiana jako "teoria przekazywania wiadomości za pomocą sygnałów, opartej na teorii funkcji decyzyjnych".[1]

Historia teorii informacji

Teoria powstała w 1948 roku, a za jej ojca uznaje się matematyka i inżyniera - Claude E. Shannon, który poruszył jej temat w swoim dziele A mathematical theory of communication opublikowanym w czasopiśmie Bell System Technica Journal, 27.

W 1950 roku miała miejsce pierwsza międzynarodowa konferencje, która była poświęcona właśnie teorii informacji. Natomiast w 1953 został napisany na ten temat pierwszy egzemplarz czasopisma.[2]

Charakterystyka teorii informacji

Informacja to możliwe, że najistotniejszy składnik każdego systemu. Dzięki informacji można określić stopień zorganizowania masy oraz energii w systemie. Szczególne znaczenie informacja ma w systemach cybernetycznych. W tej teorii najeży rozumieć trzy pojęcia informacja, system oraz entropia. [3]

Informacja to "dowolna wiadomość, na podstawie której odbiorca wiadomości opiera swoje działanie"[4]

Sygnał - "określa wielkość fizyczną, która przenosi informację o stanie układu (obiektu), bez względu na jego postać lub też przenosi wszystko to, co można wykorzystać do bardziej sprawnego określenia działań zapewniających realizację danego celu. "Dzięki przesyłaniu i przetwarzaniu różnorodnego sygnałów" możliwy jest obieg informacji. "Sygnały można podzielić na":

  • sygnały stochastyczne (losowe) - przekazywaną informację można przewidzieć tylko z określonym prawdopodobieństwem,
  • sygnały deterministyczne- sygnał o przyszłości znanej.[5]

Entropia to miara nieokreśloności. Została zapożyczana z fizyki na potrzeby cybernetyki. W teorii systemów jest miarą uporządkowania - im mniejsza tym system jest bardziej uporządkowany, a wraz ze wzrostem spada jego uporządkowanie (poziom najwyższy oznacza że mamy do czynienia z chaosem). Zerową entropia oznacza się system doskonale uporządkowany. W takim systemie można przewidzieć zdarzenia z prawdopodobieństwem równym jedności. W momencie w którym oczekiwane zdarzenie ma miejsce, zmniejsza się poziom niewiedzy i niesie to pewną informację. Informacja wypiera tutaj pewien poziom entropii. Dzięki temu można uznać entropię za miarę informacji. [6]

Wartość entropii przedstawia się następującym wzorem\[H (p)= - \sum_{i=1}^n p_i log p_i\]

gdzie H (p) - nieokreśloność zajścia zdarzenia, a p - prawdopodobieństwo zajścia niezależnego zdarzenia. [7]

Każdy system ma określoną strukturę. Informację, która związana jest bezpośrednio ze strukturą systemu nazywamy informacją strukturalną. Ponadto w teorii informacji wyróżnia się informację względną, która związana jest z komunikacją systemów.

Należy również widzieć różnicę między pojęciami: wiadomość i informacja. Wiadomość to pojęcie pierwotne, oznaczające ciąg sygnałów o znaczeniu przedmiotowym lub symbolicznym, a charakterze obiektywnym. Natomiast informacja to kategoria wtórna w porównaniu do wiadomości o charakterze subiektywnym. Ilość informacji, jaką niesie wiadomość zależy od stopnia wiedzy odbiorcy. Jeżeli rzeczy w niej zawarte są znane odbiorcy to taka informacja nie zmniejsza jego entropii, czyli stopnia niewiedzy. Natomiast w momencie w którym informacja zawiera treści nieznane odbiorcy, można stwierdzić, że jego poziom niewiedzy został zmniejszony.

Informacja może być rozpatrywana w trzech aspektach:

  • ilościowym - oznacza ilość sygnałów i symboli, które są niezbędne do jej przekazania,
  • znaczeniowym - związany jest z interpretacją treści i komunikowaniem się nadawcy z odbiorcą,
  • wartościowym - ma na celu pokazanie użyteczności przekazanej informacji. [8]

Znaczenie teorii informacji

C. F. Shannon formułując teorię informacji stworzył również matematyczne podstawy teorii kodowania. Ponadto teroria informacji wykorzystywana jest w:

  • sferze przechowywania informacji,
  • realizacji rożnego typu systemów sterowania,
  • projektowaniu i budowie systemów automatycznego sterowania. [9]

Bibliografia

Przypisy

  1. J. Nowakowski, W. Sobczak (1970) str. 9
  2. H. Górecki (2006) str. 5
  3. S. Mynarski (1989) str. 146
  4. J. Nowakowski, W. Sobczyk (1970) str. 13
  5. Z. Łukasik (2004) str. 8-9
  6. S. Mynarski (1989) str. 147
  7. S. Mynarski (1989) str. 149
  8. S. Mynarski (1989) str. 151-152
  9. Z. Łukasik (2004) str. 65-68

Autor: Klaudia Niziołek