Treść książki

Przejdź do opcji czytnikaPrzejdź do nawigacjiPrzejdź do informacjiPrzejdź do stopki
30
Elementyteoriiinformacji
Wpowyższymprzykładziewidzimy,żeprawdopodobieństwawygenerowania
poszczególnychwiadomscisąjednakowe.Źródłobezpamięciowemiałobywtedymak-
symalnąentropięrównąH(X)=1.Obliczeniaentropiirozpatrywanegoźródłaciągów
Markowadokonanewprzykładzie1.7wskazują,żejegoentropiajestmniejsza.Wcelu
porównaniawartscientropiizentropiąźródłabezpamięciowegootychsamychpraw-
dopodobieństwachwygenerowaniaposzczególnychwiadomsciwprowadzasiędefinicję
źródłastowarzyszonegozeźródłemciągówMarkowa.
Definicja1.7.NiechX={a1,...,aK}będziealfabetemźródłaciągówMarkowa
m-tegorzędu.NiechP(a1),...,P(aK)będąprawdopodobieństwamiwystąpieniapo-
szczególnychwiadomościnawyjściutegoźródła.ŹródłemstowarzyszonymXzeźró-
dłemciągówMarkowaXnazywamyźródłobezpamięcioweposiadającetensamalfabet
Xiidentycznyrozkładprawdopodobieństwwystąpieniaposzczególnychwiadomościele-
mentarnych.
Poniżejpokażemy,żeentropiaźródłaciągówMarkowajestmniejszalubrówna
entropiiźródłaznimstowarzyszonego.Wtymceluwykażemynajpierwpomocniczą
nierównsć,którąwykorzystamynastępniekilkakrotniewnaszymkursieteoriiinfor-
macji.
Niechpiorazqi(ż=1,...,N)mająsensprawdopodobieństw,dlaktórych
zachodzi
N
N
Σ
pi=
Σ
qi=1orazpi0,qi0dlaż=1,...,N
i=1
i=1
Pokażemy,że
Σ
i=1
N
pilog
pi
qi
0
(1.17)
Ponownieskorzystamyzoszacowanialnxx1.Mamybowiem
n=1
Σ
pnlog
qn
pn
=
ln2
1
Σ
n=1
N
pnln
pn
qn
ln2
1
n=1
Σ
N
pn(
qn
pn
1)=
N
=
ln2(
1
n=1
Σ
N
qn
Σ
n=1
N
pn)=0
Skorzystajmyobecnieztakwyprowadzonejnierównsci,abyznaleźćzależnsćmiędzy
entropiąźródłaciągówMarkowapierwszegorzęduaentropiąźródłaznimstowarzy-
szonego.Wtymceluzastosujemynastępującepodstawienia
pn=P(xi,xi11)=Pr{xi=ak,xi11=aj}
qn=P(xi)P(xi11)=Pr{xi=ak}Pr{xi11=aj}
k,j=1,...,K
Takwięc,biorącpoduwagęnierównsć(1.17)orazpowyższepodstawienia,otrzymu-
jemy(wzapisieuproszczonym)
Σ
xz
xz
Σ
11
P(xi,xi11)log
P(xi)P(xi11)
P(xi,xi11)
0
(1.18)