2025-03-07 AI Meeting

Mārcis

Report: https://www.notion.so/evalds/2025-03-21-1b9835ce38b88009a2afe0d98cae31c5

Done:

  1. PP new summary model (Gemma3, 4b), bez quantizing, Gemma2 bija jau quantized. Summary 20sek pagaidām iet uz sarunu, kas ir ļoti lēni. Bet kvalitāte ir laba. Summary tiek veidots caur translation model. Summary dod padomus.

  2. Grāmatiņš jauns validation set

  3. StyleTTS2 modeļa uzlabojumi, dati sagatavoti apmācībai

  4. Whisper Medium mācīts

  5. Whisper Large multi-lingual nevaram dabūt, ka normāli strādā

 

TODO:

  1. Dokumentāciju uzlabot notes

    1. Dokumentēt atskaitē precīzi kādi ir prompts for intent, sentiment and summary pēc mūsu pieredzes no Eldigen un BIKUS varam palīdzēt (konsultējies lūdzu ar Betiju un Reini, lai sasniegtu optimālu rezultātu)

    2. kāds ir max_length Gemma3?

    3. Kur atrodās uz asya_5 validation set gramatins ar kuru iegūst new best Error Rate on validation set. 0.66%, ja nav, tad lūdzu uzlikt

  2. STT API

    1. Ar Paulu saskaņot PP Summary izmaiņas, lai struktūra korekta. Kamēr nav uzliktas izmaiņas lūdzu turpinam sūtīt kopējā “blāķī”

    2. Summary, Gemma3

      1. Scrape no PP API datus translation. Kur precizi šobrīd uz asya_5 stāv visi translation dati?

      2. Sekot līdzi, kad būs quantized, TensorRT versija?

      3. Noskaidrot kāpēc Gemma3 4b ir labāks par Mistral/Lamma 10b+ modeļiem? Ko tieši viņi izdarīja, lai būtu labāks?

    3. PP grammar/word fix modelim piedāvāt variantu kā uzlabot, jo Kristiana Felša ziņo, ka vēljoprojām pazūdot vārdi diemžēl.

    4. Pamēģināt apvienot Multi-Lingual vanilla mūsu nepielāgotu modeli ar timestamps, lai atpazītu tikai ar mūsu modeli. English daļas arī vajadzēs reprocessēt ne tikai Latviski, bet multi-lingual var strauji mainīt valodas

  3. Real-time STT

    1. Whisper Medium pabeigt apmācīt un uzstādīt

  4. Grāmatiņš

    1. Pievienot gramatins endpoint dokumentāciju (pat ja websocket, lai mirror uz HTTP POST arī) https://api.gramatins.lv/docs

    2. Iegūt datus no API, kur kāds disliked, ja nav uzkodēts, ka uz API sūtam disliked/liked, tad to jāpieliek un jānokumnicē ar Annu, ka pieliekam gan gramatins.lv gan salieckomatus.lv

    3. izgūt datus no salieckomatus.lv un gramatins.lv, kas pašlaik tur saglabāti uz serveriem

    4. Iegūt datus un uzlabot modeli

  5. TTS

    1. Apmācīt StyleTTS2 un salīdzināt pēc metrikām un kvalitatīvi ar VITS2

 


 

Krišs

Report: https://www.notion.so/evalds/Report-1bd835ce38b880518c16dfc4852a773d?pvs=4

Done:

  1. Robocall V0 , demo Verdikts

  2. TTS API uzlabojumi

  3. Noskaidrots, ka datu kopās nav elpas, nevarēs tādā veidā apmācīt pa tiešo TTS

  4. Eldigen Sabio bugfixes

TODO:

  1. Eldigen

    1. Augstākā prioritāte, palīdzēt atrisināt Eldigen chat crashes, ja nepieciešams pāriet uz citām bibliotēkām.

    2. Pabeigt Sabio fixes

    3. Palīdzēt salabot kritiskās lietas LIAA Document checker

  2. Robocall

    1. Paprasīt jau Annai, lai viņa dabon API no kurienes lasīt numurus un informāciju, kam zvanīt un kur mums sūtīt info atpakaļ (tev jau bija specifikācija API).

    2. Izveidot primitivu web pieeju, lai verdikts var augšupielādēt Excel ar Ievades datiem, tajā saglabā izvades datus un nodot Annai pieeju, lai viņa panāk, ka Verdikts sāk reāli testēt. No web ievadīšana nebūs ērti. Nākamais, ko vajadzēs darīt ir integrēties ar viņu sistēmu. Citiem klientiem, kuriem nebūs API iespēja ar Excel būs jēgpilna

    3. Ar Mārci kopā turpināt uzlabot Balss kvalitāti. Lūdzu izpētīt iespējas atrast datu kopas ar ieelpām (tādas jabūt piem freesound.org utt), ielīmējot 100 dažādas random ieelpas varētu arī izdoties radīt ilūziju. Ja ir maksas avoti dod ziņu, varbūt jānopērk kvalitātīvi ieraksti.

    4. Pievienot fona ofisa skaņas (asya_5 noise_audio kopās varētu būt vai atrast no freesound.org). Ja ir maksas avoti dod ziņu, varbūt jānopērk kvalitātīvi ieraksti.

 


 

Reinis

Report: https://www.notion.so/evalds/2025-03-19-BIKUS-report-1bb835ce38b880a0b2a2dd838226f42a

 

Done:

  1. Eldigen - Atkārtotās atbildes uz jautājumiem salabotas, jo re-ranker tika padoti visi fakti no iepriekšējiem jautājumiem, atdeva tuvākos uz jebkuru no iepriekšējiem nevis tikai pēdējo

  2.  

 

TODO:

  1. BIKUS - Nepieciešams pabeigt projektu, kad gatavs dot ziņu Ēvaldam. Netaisam ar Gemini, dabonam no Annas api Key.

    1. Atpazīt tāmju nosaukumus pēc summām

    2. Processing percentage un states ka ENUMs iekš API

    3. Lai Didzis vispirms notestēt pie sevis uz mūsu servera

  2. Eldigen - Information search. Risināt problēmu ar nogrieztiem īsiem faktiem. Nepieciešams pagarināt faktus. Iespējams avotos būtu pēc semantiskās līdzības jāgriež nevis hard-cut.


Gustavs

Report: https://www.notion.so/evalds/21-03-2025-Faradai-1bd835ce38b880ba80f8fb7ef5074fe4

Done:

  1. T4.4 Nodevuma apraksts

  2. Salabotas datu kopas

  3. Salīdzināšana apmācībai CCE un DML (NTXentLoss + BatchEasyHardMiner + AdamW)

TODO:

  1. FaradAI

    1. Pabeigt apmācības ar CCE, DML

      1. Vai tevi ir rezultātu tabulas, kuras pamato DML izvēli? Ja nav vajadzētu palaist apmācīties ar dažādiem DML modeļiem.

      2. Rezultātu tabulas

    2. Notestējam Zero-shot klases uz modeļiem. CCE logits arī vajadzētu testēt, lai var kaut cik salīdzināt. Tāpat uz Zero-shot

  2. Waterson

    1. Uz nedēļas beigām sākt darbu pie koncentrāciju modeļiem un ietekmi, lai uz 5dienas meeting ir pirmais salīdzinājums piem. WT1 vs WT1(ar lielām koncentrācijām) testējot uz validācijas kopas

31.marts - 6. aprīlis atvaļinājumā


 

Artūrs

Report:

https://www.notion.so/evalds/2025-21-03-WeedBot-YOLO-nez-u-mode-i-Art-rs-1bd835ce38b880388ea1cb7544c73a2e?pvs=4

 

Done:

  1. Keypoint modeļu pārmeklēšana

  2. Yolo BBOX tipa keypoint modeļi

 

TODO:

  1. Weedbot

    1. notestēt yoloact uz keypoints un pamēģināt atkārtot viņu base rezultātus

    2. Cik GB aizņem Yolo, Yolact priekš keypoint inferencē?

    3. Cik GB aizņemtu Unet, Deeplab segmentācijai?

    4. Sagatavot apmācītos modeļu svarus bbox modelim (iedot vietu no kurienes paņemt) un inference python code + commit in GIT

    5. Atskaitē iekļaut arī citu keypoint modeļu analīzi (links), izskaidrot kāpēc tie nav 1:1 pielitojami mūsu uzdevumā un, ka lielākoties tie prognozē punktu iekš box

    6. Piedāvāt gala arhitektūru:

      1. Kulturaugam semantic segmentation modelis

      2. nezālēm BBOX based keypoints + alternative custom keypoint modelis

    7. Sagatavot report un sagaidīt info par nākamajiem soļiem

  2. Tet AI - Ēvalds vēlākais rīt vakarā arī pieslēgsies uz šo uzdevumu

    1. ⁠Sameklē lūdzu zinātniskos darbus, kur būtu kaut kaut kas par medicīnas tekstu tag klasifikāciju - vajag vairākus tags nevis tikai vienu klasi (vai varbūt vispār garāku tekstu multi-label clasifikāciju). Gan zero-shot ar LLM, gan speciāli apmācītus modeļus piem T5, BERT. Vēlams, ka ir github / huggingface pieejams

    2. ⁠Sameklē lūdzu zinātniskos darbus par sentence / text embeddings modeļiem medīciniskiem tekstiem

    3. ⁠Sameklē lūdzu zinātniskos darbus par LLM pielāgošanu (LoRa visticamāk) uz medicīnisku tekstu chat modeļiem