Исследование методов построения моделей кодер-декодер для распознавания русской речи



бет10/23
Дата02.01.2022
өлшемі220.96 Kb.
#452242
түріИсследование
1   ...   6   7   8   9   10   11   12   13   ...   23
issledovanie-metodov-postroeniya-modeley-koder-dekoder-dlya-raspoznavaniya-russkoy-rechi

Предварительное обучение модели


В экспериментах применена техника предварительного обучения (предобучение) нейронной сети. В работе [3] показано, что глубокие LSTMмодели могут давать лучше результаты, если использовать многоуровневое предобучение, начиная с одного или двух слоев, постепенно увеличивая количество слоев. Поэтому многоуровневое предобучение проводилось в течение 20 эпох (циклов обучения). Также в течение первых пяти эпох предобучения была отключена регуляризация параметров модели.

Было применено послойное предобучение сети кодера. Сначала были предобучены первые два слоя кодера и один промежуточный слой с коэффициентом сжатия 32. Затем были добавлены еще один LSTM-слой и промежуточный сжимающий слой. При этом коэффициент сжатия первого промежуточного слоя стал равным 16, но новый промежуточный слой имел множитель коэффициента сжатия, равный двум. Таким образом, общий коэффициент сжатия по временной оси в сети кодера всегда был равен 32.




Достарыңызбен бөлісу:
1   ...   6   7   8   9   10   11   12   13   ...   23




©dereksiz.org 2024
әкімшілігінің қараңыз

    Басты бет