Treść książki

Przejdź do opcji czytnikaPrzejdź do nawigacjiPrzejdź do informacjiPrzejdź do stopki
x
spistreści
4.7.Sterowaniezapomocąinformacjizwrotnej152
4.7.1.Liniowaanalizadyskryminacyjna
153
4.8.Mocwektorówtematycznych155
4.8.1.Wyszukiwaniesemantyczne
156
4.8.2.Ulepszenia
159
CZĘŚĆ2GŁĘBSZEUCZENIESIĘ(SIECINEURONOWE)161
5.Siecineuronowekrokpokroku(perceptronyipropagacjawsteczna)163
5.1.Siecineuronowelistaskładników
164
5.1.1.Perceptron
165
5.1.2.Perceptronnumeryczny
165
5.1.3.Zboczeniezdrogispowodowaneodchyleniem
166
NeuronwPythonie
168Klasatkwiwsesji
169Uczeniesięlogiki
toczystafrajda
170Następnykrok
172Koniecdrugiejzimy
sztucznejinteligencji
175Propagacjawsteczna
176Zróżniczkujmy
wszystko
179
5.1.4.Poszusujmypowierzchniabłędu181
5.1.5.Zwyciąguprostonastok182
5.1.6.Udoskonalmytonieco182
5.1.7.Keras:siecineuronowewPythonie
184
5.1.8.Wprzódiwgłąb
187
5.1.9.Normalizacja:stylowewejście
188
6.Wnioskowanieprzyużyciuwektorówsłów(Word2vec)
190
6.1.Zapytaniasemantyczneianalogie
191
6.1.1.Pytaniaoanalogię192
6.2.Wektorysłów193
6.2.1.Wnioskowaniezorientowanewektorowo
197
Jeszczewięcejpowodów,bykorzystaćzwektorówsłów
199
6.2.2.JakobliczaćreprezentacjeWord2vec200
Podejścieskip-gram
201Czymjestsoftmax?
202Wjakisposóbsieć
uczysięreprezentacjiwektorowej?203Odnajdywaniewektorówsłów
zapomocąalgebryliniowej205PodejścieCBoW
205Skip-gram
aCBoW.Kiedykorzystaćzktóregopodejścia?
207Trikiobliczeniowe
Word2vec207Częstebigramy
207Podpróbkowanieczęsto
występującychtokenów208Próbkowanienegatywne209