User Tools

Site Tools


tanszek:oktatas:infrendalapjai_architekturak:informacio_feldolgozas:entropia

This is an old revision of the document!


Entrópia

Ha az eseménytér eseményei nem egyformán valószínűek, akkor a hírkészlet jól jellemezhető a hírek átlagos információ tartalmával.

A hírkészlet átlagos információtartalmát a hírkészlet entrópiájának nevezik.

$$ H_E = \sum\limits_{i=1}^n p_i \cdot I_{E_i} = \sum\limits_{i=1}^n p_i \cdot log_2 \frac{1}{p_i} = - \sum\limits_{i=1}^n p_i \cdot log_2 \cdot p_i $$.

Példa

Adott egy eseményrendszer, amely két eseményből áll: \( E = \{E_1, E_2 \} \), továbbá \( p = \{ p_1, p_2\} \) ezért \( p_2 = 1- p_1 \), ekkor az átlagos információtartalom:

$$ H_E = - [ p_1 \cdot log p_1 + (1 - p_1) \cdot log (1-p_1) ] $$.

Ez a függvény a következőképpen ábrázolható:

Azt láthatjuk, hogy az entrópia akkor a legnagyobb, ha a két esemény egyforma valószínűségű. Általánosságban elmondható, hogy ebben a modellben akkor alacsony az entrópia, amikor kicsi valószínűségű eseményeket is tartalmaz eseményrendszerünk.

tanszek/oktatas/infrendalapjai_architekturak/informacio_feldolgozas/entropia.1731413554.txt.gz · Last modified: 2024/11/12 12:12 by knehez