- Entropija – Prva definicija
- Entropija – uvod
- Geometrijske frustracije
- Entropija i termodinamika
- Entropija i termodinamika 2
- Entropija – fazni prelazi i hemija 1
- Entropija – fazni prelazi i hemija 2
- Strela vremena
- Entropija i teorija informacija 2
- Entropija i teorija informacija 1
- Čovek i entropija
- Literatura
Primena entropije na teoriju informacija u stvari predstavlja statistički opis informacija, izvora informacija i operacija sa njima (kompresovanje itd.).
Teorija informacija je grana primenjene matematike nastala u 20 veku. Osnovu ove teorije čine radovi „Prenos informacija“ koji je objavio Ralf Hartli 1928 zatim možda i najvažniji „Matematička teorija komunikacije“ Kloda Šenona iz 1948 i „Kibernetika“ koju je takođe 1948 godne objavio Norbert Viner. Hartli je prvi definisaoizraz za količinu informacije , Šenon je uz pomoć matematičara Von Njumana definsao entropiju izvora informacija proučavajući izgubljene signale u telefonskim žicama a Viner je dao svoju teoriju po kojoj je informacija mera uređenosti dok je neodređenost mera neorganizovanosti i po količinama su iste pa važi
(информација) = (неодређеност).
U matematici je svaki iskaz ili tačan (T) ili netačan (┴) i to je osnova binarne logike (o ili 1). Međutim problem nastaje kada se postavi pitanje čiji odgovor je neodređen odnosno nije samo T ili ┴.
Na primer pitanje: „koje je boje zid?“. Ako imamo 6 ponuđenih boja i vervatnoć da je svaka od njih tačan odgovor jednaka kako da postavljamo pitanja da dobijamo tačan odgovor?
U teoriji se pokazuje da ako imamo 2n mogućih i isto verovatnih odgovora ( p(n)═1/n) treba da postavimo n binarnih pitanja da pi sigurno znali odgovora. Zbog toga je Hartli predložio da se količina informacija računa kao negativan logaritam verovatnoće njenog pojavljivanja.Jedinica za količinu informacija je 1 bit mada postoje i Šenon po simbolu (shanon/symbol) a koristi se i Hartli po simbolu (Hartley/symbol)
I(p) = −log2 (n) = log2n za p(n) ═ 1/n
Logaritam verovatnoće je negativan broj!!!! Takođe mogu da se koriste i druger osnove za logaritam
npr. 10, e – Ojlerov broj, ali i dualni logaritam ld
Međutim, nakon ovoga javlja se problem u slučaju kada nije verovatnoća svih mogućih odgovora ista. Ovaj problem rešili su Šenon i Viver i to nezavisno jedan od drugog ali su dobili isto rešenje.
Na primer ako imamo dva moguća rešenja verovatnoće P1 i P2 tada je količina informacija za prvi slučaj I1 ═ -log2 P1 a za drugi I2 ═ -log2 P2. Srednja vrednost tj. matematičko očekivanje za ova dva broja je I = − P1I1 − P2I2.
U opštem slučaju za n ═ 2,3,4,5………. i za P1, P2, P3……..Pn važi
I = − P1log2P1 − P2log2P2 − … − PnlognPn.
Ovako definisana srednja vrednost količine informacija predstavlja entropiju odnosno neodređenost.
Ovu definiciju dao je Šenon koji je bio inžinjer i matematičar uz pomoć još von Njumana koji mu je pomogao i u davanju imena veličini jer je Šenon upotrebljavao izraz neodređenost ali mu je von Njuman rekao da je nazove entropija zbog sličnosti sa ovom veličinom u termodinamici a izbog togo što kako je rekao entropiju niko ne razume pa će mu to pomoći eventualnim debatama.
Za razliku od Šenona, Viver je do svog rešenja došao koristeći termodinamiku odnosno Bolcmanove radove. On je entropiju označio sa H i došao do formule
H(P1, P2, P3,…) = − P1log2P1 − P2log2P2 − P3log2P3 − ….
I = H