Ja Seq2SeqTrainer ielādē un saglabā optimizer svarus (nevis paša modeļa tikai), tad jāmēģina ar ļoti maziem LR strādāt
Pārsaukt “Dziļā māšīnmācīšanās” un likvidēt subsections
Paplašināt metadoloģiju = min 5.lpp
Salikt bildes ar atsaucēm (ne tavas pašas ar atsaucēm)
Runas atpazīšana nodaļā iekļaut
Architcture - Wav2vec
pretrain - self-supervised , virzītā apmācība
finetune - pārraudzītā apmācīta
https://www.notion.so/evalds/wav2vec-working-principles-754daeda267b4f9094633a0c8b83dc27?pvs=4
Rezultāti - 2lpp
Rezultātu tabula Mazliet paskaidrot