Done:
TTS pārnests uz asya-1 (nav vērts hyper-param search)
Voice Conversion ieviešana
TODO:
Problēmas esošajā dataset - neprecizitātes ierakstīt => updeito mārcim
ViTS2 apmācīt
Full Dataset savest kārtībā, lai visus datus var izmantot
Robocall pipeline izveidot
Done:
ParkExpert
V3, automatic dataset mining
Kameru + Modelis - 200k
Tie kas nesakrīt Kamera + Modelis tiek doti uz GPT4 - 45k -> Final dabūjām -> 30k
GPT 10% rāda nepareizi, dod maz False Positives
FaradAI
SAM, Captioning slikts
TODO:
ParkExpert
Padzēst ārā skiktos paraugus pie manual minig
Nav vēl full dataset - Justīne? kad būs?
FaradAI
LLama3.2 Multimodal captioning
YOLO fine ja ātra
Laikā Sekunde A-Sekunde B, 2sek, un pie reizes atpazīt cilvēkus un blur, FFPMEG
frame bildes, JPEG, json
Katru frame JSON, final rezultāt
Done:
FaradAI
Piekļuva datiem
Waterson
Pārbaudīja dataset
Nav nav Nitrates un DOX
ORP nevar ņemt
TODO:
Waterson
15min mapping baseline
Farad
Sakārtot datu kopas (balanced test/val)
DataSet klasei augmentācijas ar iespeju On/Off
Modeļa arhitektūra, kura atbalsta dažadus izmērus FCN pirms logits uzlikt 2D Adaptive Avg Pooling F const. Testēt ar un bez izmēra maiņas. Testēt padding, resize, no-resize.
Loss functions - weighted CCE, weigthed sampler + sample mining + triplet vai contrastive, proxyNCA (pytorch deep metric learning library)
Pēc katra epoha DML F1 izrēķināt embedding mean/median centroids no training set un lietot uz test set
Pēc apmācības
Transfer-learning Locked CCE logits / DML modelis + Train uz XGBoostClassifcation pa virsu => F1
DML labāks pie zemāka paraugu skaita - frugal
Zero-shot transfer => F1 izrēķināt embedding mean/median centroids no training set (nelietot priekš apmācības) un inferencē ar iepiekš apmācītu modeli lietot uz test set
DML var sasniegt jēgpilnu F1 vispār bez apmācības - frugal
Info no Reiņa:
Metode nelineārai kalibrēšanai var būt SINDy (Sparse Identification of Nonlinear Dynamics). Idejiski ja ir divas nelineāri offsetotas laika sērijas, tiek izveidots kandidāt funkciju saraksts (visi varianti ar sin(x), tan(x), x^n, x^2*tan(x)...) un izmantojot lineāru optimizāciju ar spēcīgu penalty term priekš sparsity (pēc iespējas mazāk funkciju) var noteikt kādu funkciju kombinācija un ar kādiem koeficientiem vislabāk der. Bet nu pa tiešo tas darbojas tikai bez time-lag. https://pysindy.readthedocs.io/en/latest/examples/2_introduction_to_sindy/example.html
Done:
Information extraction from Clarifying Questions
TODO:
Noņemt extracted tekstiem pēdiņas
Ieviest Output structure scaffolding, structured outputs, varbūt it vēl kāds veids https://platform.openai.com/docs/guides/structured-outputs
Ļoti nepieciešams Eldigen:
Entity detection ieviest beidzot, lai uz BM25 sūta vairākus requests ar keywords nevis pilnu tekstu
Noskaidrot vai klienta uzdoto jautājumu nevajag sadalīt vairākās daļās un veikt 2x vai 3x Retrieval requests, ja uzdod 2 jautājumus vienā teikumā
Nepieciešams atjaunot funkciju, kas atrod pretrunas faktos un pretrunīgo faktu gadījumā uzdod papildus jautājumus vai arī tos neizmanto kā arī flaggo tos
Tiklīdz būs Printful AI vai ZippyVision AI uzdevumi pārslēgties uz tiem
Done:
Sabio pārnests uz dashboard
TODO:
Izprast pareizi context generation un izpētīt rezultātus vai uzlabo
uzlabot faktu kvalitati
bezjedzigos aizvakt - cookies, 404, footers utt
Nedrīkst retrieved faktu sarakstā būt duplikāti
mums vajag no faktiem vilkt araa meta data un tags, lai filtretu retrieved facts un varetu graph idejas pievienot faktus pec jautajums tags. blog facts jau tas sakodets, vajag citiem sources ari. Ar tags un citiem meta datiem var iegūt graph database
Done:
Summarize model apmāca
Eldigen jauns translation modelis -
TODO:
Whisper-v3 Large uz visām 3 valodām
Paulam un Justīnei pārabaudīt jaunu grāmatiņš modeli. Uzlabot vēl dataset, salīdzinoši viegli vēljoprojām salauzt grammar modeli, bet ir jau daudz labāk
Summary model uzstādīt un dot notestēt
TODO:
Implementēt jautājumu ģenerēšanu Valodu vēstniecībai pirmajā nedēļas pusē
Sagatavot report par embeddings un izvēlēties labāko pieeju