Treść książki

Przejdź do opcji czytnikaPrzejdź do nawigacjiPrzejdź do informacjiPrzejdź do stopki
1
Probabilistycznemetody
klasyfikacyjne
Uczeniesiępodnadzoremlubuczeniesięzprzykładówjestprocesembu-
dowy,nabaziedostępnychdanychwejściowychXiorazwyjściowychYi,
ź=1,2,
...,n,regułyklasyfikacyjnejzwanejinaczejklasyfikatorem,
służącejdopredykcjietykietyYgrupy,doktórejnależyobserwacjaX.
Wrozdzialetympokażemyróżnorodnekonstrukcjeklasyfikatorówoparte
naprzesłankachprobabilistycznych.
Czytelnikówzainteresowanychposzerzeniemwiedzyzzakresutegoroz-
działuodsyłamydoksiążek:Bishopa(2006),KoronackiegoiĆwika(2005)
orazWebba(2003).
1.1.Wektorylosoweiichrozkłady
prawdopodobieństwa
NiechX=(X1,X2,
...,Xp)będziewektoremlosowymopskładowych,
gdzieznakprimoznaczatranspozycję.Umawiamysię,żewszystkiewekto-
rywektoramikolumnowymi.Wektorwierszowyjestzatemtranspozycją
wektorakolumnowegoiodwrotnie.
WartościąoczekiwanąwektoralosowegoXjestwektorpostaci
E(X)=(E(X1),E(X2),
...,E(Xp))
.
WariancjąwektoralosowegoXjestmacierzstopniappostaci
Var(X)=(Cov(Xi,Xj)),
gdzie
Cov(Xi,Xj)=E{[XiE(Xi)][XjE(Xj)]}