„Shannon-entrópiafüggvény” változatai közötti eltérés
[nem ellenőrzött változat] | [nem ellenőrzött változat] |
Tartalom törölve Tartalom hozzáadva
a kozmetikai javítások |
Bot:, Replaced: ... → … (22) |
||
4. sor:
E [[függvény (matematika)|függvény]] definiáláshoz feltételezzük, hogy egy [[kommunikáció]]s folyamatban veszünk részt, melynek csatornáján az X halmaz jeleiből összetevődő véges sorozatok, üzenetek áramlanak. Ha sok üzenet áll rendelkezésre, mérni (vagy pedig becsülni) tudjuk azt a p(x) valószínűséget, hogy adott x∈X elem milyen gyakran fordul elő (várhatóan) egy üzenetben, továbbá, hogy valahogy mérhető vagy meghatározható az x jel információtartalma is, amit I(x) jelöljön. Legyen egy üzenet az
<center> <u>[[vektor|x]]</u> = (x<sub>1</sub>,x<sub>2</sub>,
jelek [[Sorozat (matematika)|sorozata]]. Ekkor az üzenet információtartalma Shannon definíciója szerint
<center> H('''x''') = H(x<sub>1</sub>,x<sub>2</sub>,
= p(x<sub>1</sub>)log<sub>2</sub>p(x<sub>1</sub>)<sup>-1</sup> + p(x<sub>2</sub>)log<sub>2</sub>p(x<sub>2</sub>)<sup>-1</sup> +
Tehát az '''x''' üzenet információtartalma jelei I('''x''') := p('''x''')log<sub>2</sub>[p('''x''')<sup>-1</sup>] „egyedi információtartalmának” várható értéke.
14. sor:
Shannon egy [[véges halmaz|véges sok]] [[jel (informatika)|jelből]] álló (véges ábécé feletti) üzenet információértékét az üzenet jeleinek mint a jelre jellemző [[valószínűség]]gel bekövetkező események információtartalmának „átlagos”, azaz [[várható érték]]eként határozta meg:
<center> <math> H \left( x_{1}, x_{2} ,
Ez még nem elégséges a definícióhoz, pontosan azért, mert az I(x) „adott jelhez tartozó információtartalom” mennyiséget nem definiáltuk. Ennek definiálásához Shannon további két feltételezéssel élt:
# Kisebb valószínűségű üzenetnek (és így jelnek) az informácótartalma nagyobb. Hiszen ha olyan eseményről szerzünk tudomást, amely átlagos, gyakori, azaz nagy valószínűségű; annak nincs nagy jelentősége; ellenben ritkább eseményre kevésbé vagyunk felkészülve, tehát ha ilyen következik be, az fontosabb.
21. sor:
Matematikailag bebizonyítható, hogy a következő képlet adja meg, ha a fenti normális(?) feltételezésekkel élünk:
<center> <math> H \left( \underline{X} \right) </math> <math> = </math> <math> H \left( x_{1} , x_{2} ,
A fenti H függvény néhány jellemzője:
49. sor:
{| align=center border=1 cellspacing=0
|-
|| 1. || <math> \forall i \in \left\{ 1,2,
|-
|| 2. || <math> \forall i,j \in \left\{ 1,2,
|-
|| 3. || <math> \max \left\{ H(\underline{x}) \ | \ \underline{x} \in \mathbb{R}^{n} \right\} = H\left(\frac{1}{n},\frac{1}{n},
|-
|| 4. || <math> H\left(x_{1},
|-
|| 5. || <math> x_{n} = \sum_{k=1}^{m}y_{k} \Rightarrow H(x_{1},
|-
|| 6. || <math> H \left( \frac{1}{2} , \frac{1}{2} \right) = 1 </math>
|