Pabeigt uzdevumus no ieprējā note
No Mārča dabūt apmācītu Voice Conversation modeli / API, ja nav dod ziņu, viņam tas ir TODO
Iegūt kvantitatīvus rezultātus salīdzināt NISQA pirms un pēc audio enhancement (lūdzu salīdzināt arī citas metodes, īpaši asya audio_denoise)
Apnācīt modeli ar
kļūdas funkcijās MSE nomainīt uz MAE, kas piemērots netīriem datiem
Pievienot koeficientus kļūdas funkciju daļām (1.0 default koeficienti, pārbaudīt +/- 0.1)
Izmantot normalizētu MelSpec (ar dabīgām amplitūrdām filtriem)
Fonā turpināt modeļa un loss funkciju izpēti
Izpētīt iepriekšējos modeļus pirms ViTS, kuri neizmanto Flow un Variational inference
Kāpēc vispār vajag Flow elementus modelī, kāpēc nevar bez tiem, kādu funkciju tie veic?
Pašam uzzīmēt Monotonic Alignment Search (MAS) diagrammu pa soļiem phonemes vs audio inputs, lai va var izprast precīzāk kā tas strādā
Kāpēc precīzi vajag Variational inference pie MAS? Vai tiešām to nevar apmācīt ar vienkāršāku loss function? Vajadzētu varēt bez. Var arī pamēģināt pieslēgt šo lib, kur var mainīt dažādus priors https://github.com/ctallec/pyvarinf
Our method adopts variational inference augmented with normalizing flows and an adversarial training process, which improves the expressive power of generative modeling. https://docs.coqui.ai/en/dev/models/vits.html