Teorie informace

Míra množství informace

Teorie informace je obor kybernetiky, který studuje informaci z kvantitativní stránky. Tento přístup umožnilo zavedení pojmu množství informace.

Vezměme si soustavu jevů A1, A2 ..., An, která má tu vlastnost, že nastane právě jeden z uvedených jevů. Dále nechť p1, p2 ..., pn jsou po řadě pravděpodobnosti jevů A1, A2 ..., An. Pak platí, že p1 + p2 + ... + pn = 1. Uvedená soustava jevů s příslušnými pravděpodobnostmi se nazývá konečným schématem. Konečné schéma vyjádříme symbolem


Konečné schéma jsou dvě řádky
   uzavřené v závorce. V horní řádce jsou zapsány jednotlivé jevy a pod nimi v dolní řádce
   jim odpovídající pravděpodobnosti.

Konečné schéma umožňuje vyjádřit jistou neurčitost. Je znám seznam možných jevů, je také známa pravděpodobnost každého jevu, není však známo, který z možných jevů skutečně nastane (pokud ovšem není pravděpodobnost pi některého z jevů Ai rovna 1).

Zpráva o výsledku pokusu uspořádaného podle konečného schématu tuto neurčitost odstraňuje. Je tedy přirozené, že za množství informace, obsažené ve zprávě o výsledku pokusu, považujeme množství neurčitosti obsažené v tomto konečném schématu.

Tuto neurčitost měříme veličinou


m = – (p1 loga p1 + p2 loga p2 + … pn loga pn)

Kde a je nějaké kladné číslo větší než 1. V dalším výkladu se ukáže, že volba čísla a má stejný význam jako volba jednotky při měření. Kromě toho pro p = 0 definujeme (v souladu s matematickou analýzou) p loga p = 0.

Na pravé straně rovnice je znaménko minus, protože žádný z členů plogap není kladný (pravděpodobnosti p, pokud nejsou rovny nule, jsou kladná čísla menší než 1, tj. logap bude číslo záporné nebo nula a součin p loga p bude rovněž číslo záporné nebo nula). Toto znaménko způsobuje, že pravá strana rovnice je kladná.

Rozebereme pozorně vzorec pro množství neurčitosti m a přesvědčíme se o účelnosti zvoleného způsobu určování množství informace.

Předpokládejme, že jeden z jevů A1, A2 ..., An, např A1, jistě nastane. Jeho prav­děpodobnost bude rovna jedné a pravděpodobnost každého z ostatních jevů bude rovna nule. Konečné schéma bude mít tvar


Konečné schéma jsou dvě řádky
   uzavřené v závorce. V horní řádce jsou zapsány jednotlivé jevy a pod nimi v dolní řádce
   jim odpovídající pravděpodobnosti. V tomto případě je v dolní řádce jedna jednička a zdytek
   nuly. 
   neurčitostí

Je zřejmé, že takové konečné schéma neobsahuje žádnou neurčitost a zpráva o výsledku pokusu s ním nebude obsahovat žádnou informaci


m = – (11 loga 11 + 0 + … 0) = 0

Lze očekávat, že maximální neurčitost má to schéma, jehož všechny jevy jsou stejně pravděpodobné. U takového konečného schématu se před pokusem nejobtížněji odhaduje výsledek pokusu.

Hledáme-li totiž maximum veličiny m jako funkce p1, p2, …, pn (způsob hledání zde neuvádíme), zjistíme, že své největší hodnoty dosáhne při p1 = p2 = … , pn = 1/n, tj. jsou-li pravděpodobnosti jevů, obsažených v konečném schématu stejné. Konečné schéma má pak tvar


Konečné schéma jsou dvě řádky
   uzavřené v závorce. V horní řádce jsou zapsány jednotlivé jevy a pod nimi v dolní řádce
   jim odpovídající pravděpodobnosti. V tomto případě jsou všechny pravděpodobnost v dolní
   řádce stejné.

Zpráva o výsledku pokusu uspořádaného podle tohoto schématu obsahuje množství informace


Vzoreček pro 
   maximální množství neurčitosti

V nejjednodušším případě konečného schématu je n = 2. Zvolíme dva stejně prav­děpodobné jevy, A1A2. Konečné schéma pak má tvar


Konečné schéma jsou dvě řádky
   uzavřené v závorce. V horní řádce jsou zapsány jednotlivé jevy a pod nimi v dolní řádce
   jim odpovídající pravděpodobnosti. V dolní řádce jsou pravděpodobnosti 1/2 a 1/2.

Zpráva o výsledku takovéhoto pokusu bude obsahovat množství informace rovné


Vzoreček pro
   dva stejně pravděpodobné jevy bez udání základu logaritmu tj. bez určení jednotky
   informace

Položíme-li a = 2, dostaneme


Vzoreček se základem
   lugaritmu 2 pro dva stejně pravděpodobné jevy v bitech

Tím jsme zvolili jednotku pro měření množství informace. Je jím množství informace obsažené ve zprávě o výsledku pokusu s konečným schématem, které má dva jevy sa stejnými pravděpodobnostmi. Tato jednotka se nazývá „bit“ (u počítačů se jako bit označuje dvojková číslice 0 nebo 1).

Zvolená míra množství informace má tu vlastnost, že použijeme-li jí při výpočtu množství informace, obsažené ve zprávě o výsledku pokusu se dvěma vzájemně nezávislými konečnými schématy, dostaneme číslo rovné součtu množství informace, obsažených ve zprávách o pokusech s každým z obou konečných schémat. Míra množství informace je aditivní.

Tuto skutečnost dokážeme u nejjednoduššího případu, kdy každé z konečných schémat má dva jevy. (V obecném případě se důkaz provede obdobně.) Uvažujeme dvě konečná sché­mata


Konečné schéma jsou dvě řádky
   uzavřené v závorce. V horní řádce jsou zapsány jednotlivé jevy a pod nimi v dolní řádce
   jim odpovídající pravděpodobnosti. Zde jsou dvě konečná schémata pro dva různé jevy se vzorečky
   pro součty jejich pravděpodobností. Součty jsou rovny 1.

Zprávy o výsledcích pokusů s těmito konečnými schématy mají tato množství informace:


m1 = (p1 log2 p1 + p2 log2 p2)

m2 = (q1 log2 q1 + q2 log2 q2)


Vidíme, že pokusy s oběma konečnými schématy jsou rovnocenné s pokusem na konečném schématu


Konečné schéma jsou dvě řádky
   uzavřené v závorce. V horní řádce jsou zapsány jednotlivé jevy a pod nimi v dolní řádce
   jim odpovídající pravděpodobnosti. Konečné scéma dvojice pokusů obsahuje všechny možné
    kombinace výsledků.

Každý jev tohoto konečného schématu vyjadřuje kombinaci jednoho z jevů Ai s jedním z jevů Bj, kde i, j jsou čísla 1 nebo 2. Pravděpodobnost, že takový kombinovaný jev nastane je rovna součinu pravděpodobností jeho složek piqj.

Vypočteme množství informace obsažené ve zprávě o pokusu s posledně uvedeným konečným schématem:


m = – [p1q1 log2 (p1q1) + p1q2 log2 (p1q2) + p2q1 log2 (p2q1) + p2q2 log2 (p2q2)]


Napíšeme-li každý logaritmus součinu v tomto výrazu jako součet logaritmů součinitelů, dostaneme po algebraické úpravě


m = – [(p1q1 log2 p1 + p1q1 log2 q1) + (p1q2 log2 p1 + p1q2 log2 q2) +

+ (p2q1 log2 p2 + p2q1 log2 q1) + (p2q2 log2 p2 + p2q2 log2 q2)] =

= – (q1 + q2) (p1 log2 p1 + p2 log2 p2) – (p1 + p2) (q1 log2 q1 + q2 log2 q2)


Uvážíme-li, že

p1 + p2 = 1

q1 + q2 = 1


Pak se zřetelem ke vztahům pro m1m2 dostaneme


m = m1 + m2


čímž je důkaz proveden.

Vše, co jsme ukázali, nás utvrzuje v přesvědčení, že jsme zvolili účelný způsob měření množství informace.

Závěrem uveďme dva příklady.

Součástí mnohých her je vrhání hrací kostky; hrací kostka je, jak je obecně známo, opatřena na jednotlivých plochách číslicemi 1, 2, 3, 4, 5, 6.

Konečné schéma má šest jevů, z nichž každý odpovídá padnutí jednoho z výše uvedených čísel. Je-li materiál kostky stejnorodý a je-li kostka dostatečně přesně zhotovena, bude pravděpodobnost všech jevů stejná. Konečné schéma bude mít tvar


Konečné schéma jsou dvě řádky
   uzavřené v závorce. V horní řádce jsou zapsány jednotlivé jevy a pod nimi v dolní řádce
   jim odpovídající pravděpodobnosti. Konečné schéma házení spravedlivou kostkou má všechny pravděpodobnost
   rovné 1/6.

Zpráva o výsledku vrhu kostky má tedy množství informace


Množství informace
   získané sdělením výsledku hodu spravedlivou kostkou

Nyní předpokládejme, že hrací kostka má na jedné ploše číslici 1 a na zbývajících pěti plochách číslici 2. Konečné schéma bude v tomto případě vypadat takto


Konečné schéma jsou dvě řádky
   uzavřené v závorce. V horní řádce jsou zapsány jednotlivé jevy a pod nimi v dolní řádce
   jim odpovídající pravděpodobnosti. Konečné schéma hodu svérázné kostky má pravděpodobnosti 1/6 a 5/6.

Zpráva o výsledku hodu kostkou bude teď mít menší množství informace, totiž


Vzoreček pro množství
   informace získané sdělením výsledku hodu svéráznou kostkou

Tento přístup, ve kterém se počítá s úplným odstraněním neurčitosti při přenosu informace je převzat z knihy Elektronické počítače od L. I. Kitova a N. A. Krinického.1 Ve většině pojednání je neurčitost nazývána entropií H a množství informace I se počítá jako rozdíl entropie před přijetím zprávy a po jejím přijetí.1