Treść książki

Przejdź do opcji czytnikaPrzejdź do nawigacjiPrzejdź do informacjiPrzejdź do stopki
Rozdział2
Optymalizacjastochastyczna
Uczeniesięiadaptacjasystemówtechnicznychbardzoczęstosprowadzasię
dooptymalizacji.Amianowicie?wzależnościodpewnegowektoraparametrów
systemuczącysiędziałainaczej?lepiejlubgorzej.Celemuczeniasięjestwy-
bórnajlepszejwartośćtegowektora.Niestety?jednachwilaczynawetepizod
działaniasystemuniewystarczydostwierdzenia?jakdobrejesttodziałanie.
Wskończeniekrótkimczasiedasięjedyniewyznaczyćpewienestymatorkie-
runkupoprawydlaużywanegowektoraparametrówsystemu.Ogólnyproblem
wyborunajlepszego?wedługpewnegokryterium?wektoranapodstawieesty-
matorówkierunkujegopoprawytozagadnienieoptymalizacjistochastycznej.
Niniejszyrozdziałjestpoświęconypodstawowympodejściomdotegozagadnie-
nia.
Przedmiotemtegorozdziałubędzienastępującyogólnyproblem:niech
noNorazRnÓbędziedziedzinąΘ=RnÓoptymalizowanejfunkcjiJ:Θl→R.
Będąnasinteresowałyprocedury?którekierująnieskończonymciągiempunk-
tów(Bt:t=1,2,3,...)należącychdodziedzinytak?abyciągtenzbiegałdo
minimumJ.Najpierwprzedstawimyalgorytmgradientuprostego?którynadaje
siędorozwiązaniaproblemówprostszych.Jestonopartynapewnychideach?
któredodatkowowzbogaconeposłużądosformułowaniaprocedurystochastycz-
negonajszybszegospadku?nadającejsiędorozwiązaniaproblemuwłaściwego.
Proceduratazostanieprzedstawionawdalszejkolejności.
2.1.Algorytmgradientuprostego
Niech(Bt:t=1,2,3,...)będzieciągiemparametrówkrokunależącychdoR+?
zaś(Bt:t=1,2,3,...)będzieciągiemelementówΘwyznaczanychwnastępu-
jącymrównaniurekurencyjnym
Bt+1=BtBt∇J(Bt),t=1,2,3,...
21
(2.1)