Treść książki

Przejdź do opcji czytnikaPrzejdź do nawigacjiPrzejdź do informacjiPrzejdź do stopki
1.3.WIEDZAIPROCESUCZENIA
PowszechniecytowanaformalnadefinicjauczeniamaszynowegopochodziodTomaMit-
chella[61]:ProgramkomputerowyuczysięnapodstawiedoświadczeńErozwiązywania
problemówTwzględemkryteriumocenyP,jeślijakośćP,zjakąrozwiązujeonproblemy
T,rośniewrazzdoświadczeniemE”.NaprzykładproblememTmożebyćgrawszachy,
kryteriumocenyPprocentwygranychpartii,adoświadczeniemEpartierozgrywane
przezkomputerzsamymsobą.Definicjatajestprecyzyjna,aleniewielemówiotym,
wjakisposóbprogramykomputerowesięuczą.Przyjrzyjmysięwięcprocesowiuczenia,
odnoszącgodosztucznejinteligencji.
Pierwszymetapemprzekształcanianaszychdoświadczeńibędącychichwynikiemobser-
wacjiwuporządkowanysysteminformacjiwwiedzęjestabstrahowanie.Wjejtrak-
ciejakościoweopisyzdarzeńzamienianesąnaichilościoweopisy.
Wynikiemabstrahowanianiemusząjednakbyćliczby.Dużaczęśćnaszejwiedzyjest
reprezentowanazapomocąinnychsymboli,takichjaketykiety.Przykłademetykietsą
nazwykolorów(zielony,czerwonyitd.)orazopisystanówcywilnych(żonaty,zamężna,
wdowiec,wdowaitd.).Chociażetykietysąmniejabstrakcyjneodliczb,ichwartościrów-
nieżmusząbyć(wramachprzyjętychmodeli)mierzalne.Żebynaprzykładokreślićjakiś
kolorjakozielony,musimydysponowaćkryteriamipozwalającymiodróżnićtenkolor
odinnych.
Wprzypadkuludzita,zregułydokonywananieświadomie,abstrahowanieodbywasię
wedługregułobowiązującychwprzyjętymmodelu.Wprzypadkusztucznejinteligencji
procesemtymmożemysterować,odpowiednioprzygotowującdaneźródłowe.
Drugimetapemuczeniajestuogólnianie(generalizacja).Zdolnośćdogeneralizacji
pozwalanazastosowaniedoświadczeńzdobytychwprzeszłościdobieżącychsytuacji.
Dotyczytorównieższtucznejinteligencji[89].
Jeżelijakaśosobaniepotrafiuogólniaćposiadanychinformacji,niebędziewstanie
działaćwnowychsytuacjach,boniebędziepotrafiładostrzecichzasadniczychcech
wspólnychzsytuacjami,którychwcześniejdoświadczyła.Takaosobabędziejednakbar-
dzoefektywnawsytuacjach,którejużzna(celemtreningusportowcówiwieluszkoleń,
np.żołnierzy,jestwłaśniewyrobieniewnichautomatycznych,powtarzalnychreakcji
natesamesytuacje).Wprzypadkusztucznejinteligencjiproblemtennazywamyprze-
uczeniem(overtraining/overfitting)przeuczonemodeleeksploracjidanychzachowują
siętak,jakbyzapamiętałyposzczególneprzypadkitreningoweichoćpotrafiądoskonale
wnioskowaćnapodstawiezapamiętanychdanych,tojakakolwiekzmianaocenianych
danychpowoduje,żeichwynikistająsięniedokładneiniewiarygodne.
Problemprzeuczeniamodelieksploracjidanychmożnaporównaćdoproblemuwystępu-
jącegowprzypadkupróbyprzygotowaniasiędoegzaminuprzezzapamiętywanieodpo-
7