Treść książki

Przejdź do opcji czytnikaPrzejdź do nawigacjiPrzejdź do informacjiPrzejdź do stopki
1.4.Klasyfikatorygaussowskie
Mamy:
p10=P(W<ln
π0
π1
|XNp(µ1,Σ))=
=P
{
l
\
W
1
2
2
<
ln
π0
π1
1
2
2
|XNp(µ0,Σ)
\
l
)
=
=Φ
{
l
\
ln
π0
π1
1
2
2
\
l
)
,
33
p01=P(W>ln
π0
π1
|XNp(µ0,Σ))=
=1Φ
{
l
\
ln
π0
π1
+
1
2
2
\
l
)
=Φ
{
l
\
ln
π0
π1
+
1
2
2
\
l
)
.
Zatem:
e=π0Φ
{
l
\
ln
π0
π1
+
1
2
2
\
l
)
+π1Φ
{
l
\
ln
π0
π1
1
2
2
\
l
)
.
Jeżeliπ0=π1=1/2,to
e=Φ(
1
2
).
Zauważmy,żeimbardziejodległebędąodsiebierozpatrywanepopulacje,tym
mniejszabędziewartośćbłędubayesowskiego.
Niestety,jużwprzypadkupopulacjiorozkładachnormalnychzróżnymi
macierzamikowariancjimetodywyznaczaniawielkościpijnieobecnie
znane,aoszacowanieichjestbardzotrudne(Krzyśko,2000).
Podamyteraznumerycznysposóbwyznaczaniabłędubayesowskiego
dlaprzypadkudwóchpopulacji.
Mamy:
e=πp1o+(1π)po1,