Treść książki
Przejdź do opcji czytnikaPrzejdź do nawigacjiPrzejdź do informacjiPrzejdź do stopki
x
spistreści
4.7.Sterowaniezapomocąinformacjizwrotnej152
4.7.1.Liniowaanalizadyskryminacyjna
153
4.8.Mocwektorówtematycznych155
4.8.1.Wyszukiwaniesemantyczne
156
4.8.2.Ulepszenia
159
CZĘŚĆ2■GŁĘBSZEUCZENIESIĘ(SIECINEURONOWE)161
5.Siecineuronowekrokpokroku(perceptronyipropagacjawsteczna)163
5.1.Siecineuronowe–listaskładników
164
5.1.1.Perceptron
165
5.1.2.Perceptronnumeryczny
165
5.1.3.Zboczeniezdrogispowodowaneodchyleniem
166
NeuronwPythonie
168■Klasatkwiwsesji
169■Uczeniesięlogiki
toczystafrajda
170■Następnykrok
172■Koniecdrugiejzimy
sztucznejinteligencji
175■Propagacjawsteczna
176■Zróżniczkujmy
wszystko
179
5.1.4.Poszusujmy–powierzchniabłędu181
5.1.5.Zwyciąguprostonastok182
5.1.6.Udoskonalmytonieco182
5.1.7.Keras:siecineuronowewPythonie
184
5.1.8.Wprzódiwgłąb
187
5.1.9.Normalizacja:stylowewejście
188
6.Wnioskowanieprzyużyciuwektorówsłów(Word2vec)
190
6.1.Zapytaniasemantyczneianalogie
191
6.1.1.Pytaniaoanalogię192
6.2.Wektorysłów193
6.2.1.Wnioskowaniezorientowanewektorowo
197
Jeszczewięcejpowodów,bykorzystaćzwektorówsłów
199
6.2.2.JakobliczaćreprezentacjeWord2vec200
Podejścieskip-gram
201■Czymjestsoftmax?
202■Wjakisposóbsieć
uczysięreprezentacjiwektorowej?203■Odnajdywaniewektorówsłów
zapomocąalgebryliniowej205■PodejścieCBoW
205■Skip-gram
aCBoW.Kiedykorzystaćzktóregopodejścia?
207■Trikiobliczeniowe
Word2vec207■Częstebigramy
207■Podpróbkowanieczęsto
występującychtokenów208■Próbkowanienegatywne209