Treść książki
Przejdź do opcji czytnikaPrzejdź do nawigacjiPrzejdź do informacjiPrzejdź do stopki
xii
spistreści
8.Zapętlone(rekurencyjne)siecineuronowe(RNN)259
8.1.Zapamiętywaniezapomocąsiecirekurencyjnych
262
8.1.1.Propagacjawstecznaprzezczas
267
Tl;Dr–Krótkarekapitulacja
269
8.1.2.Kiedyicoaktualizować?
269
Czyjednakobchodziwasto,cowyszłozwcześniejszychkroków?270
8.1.3.Rekapitulacja
271
8.1.4.Zawszejestjakiśhaczyk272
8.1.5.RekurencyjnesiecineuronowezKerasem272
8.2.Składaniewcałość277
8.3.Nauczmysięczegośoprzeszłości279
8.4.Hiperparametry279
8.5.Przewidywanie283
8.5.1.Stanowość
284
8.5.2.Ulicadwukierunkowa284
8.5.3.Cototakiego?
286
9.LepszapamięćdziękisieciomLSTM288
9.1.LSTM290
9.1.1.Propagacjawstecznaprzezczas
299
Wpraktyce
299
9.1.2.Próbaognia
301
9.1.3.Brudnedane
303
9.1.4.Powrótdobrudnychdanych
306
9.1.5.Słowasątrudne.Literysąprostsze
307
9.1.6.Kolejnarozmowę
312
9.1.7.Zwrotkuklarownejmowie
314
Zwiększanieużytecznościgeneratora322
9.1.8.Jakmówićicomówić
322
9.1.9.Innerodzajepamięci
322
9.1.10.Idącgłębiej
323
10.Modeleciąg-ciągiuwaga(attention)326
10.1.Architekturakoder-dekoder327