next up previous contents index
Next: Die statistische Entropie von Up: Statistische Begründung der Entropie Previous: Qualitatives Bild   Contents   Index


Entropie nach Shannon

Gegeben
sind $ N$ unterscheidbare Zustände $ S=\left\{ w_{1},\ldots,w_{N}\right\} $ mit den Wahrscheinlichkeiten $ p_{1},\ldots,p_{N}$
Informationsmangel - Entropie
$ H\left(S\right)=-\sum_{i=1}^{N}p_{i}\cdot\log_{2}\left(p_{i}\right)$
Optimale Kodierung
$ \frac{H}{\log_{2}D}\le\left\langle l\right\rangle \le\frac{H}{\log_{2}D}+1$
Eigenschaften
der shannonschen Entropie



Marco Möller 18:12:17 18.05.2006