FanApps projekts:
Pieslēgties DB, Serverim
API, SQL alchemy
Github Issues
TODO:
API noņemt update_sources(api_key: str,client_uuid, sources: Source[])
API nepieciešams pievienot funkcijas list_tags
, add_tags
, edit_tags
, delete_tags
. Sākotnējos tags mēs paši nodefinēsim vai ar GPT4 ģenerēt piemērotus tagas un tad tos pievienot, ja neeksistē. list_tags
vadzētu atgriezt arī info cik daudz fakti ir piesaistīti katram tags, to informāciju vajag glabāt DB nevis katru reizi pa jaunu rēķināt, tag.count_facts
piemēram
Jauns reference fails ar jautājumiem un atbilžu variantiem, mūsu risinājumam jāspēj līdzīgā kvalitātē ģenerēt jautājumus: http://share.yellowrobot.xyz/quick/2024-1-15-E4355114-3AD4-48C8-A6CD-5BE4E0665CA1.pdf
generate_questions jāizvēlās faktus kur tags sakrīt 1:1 vai ja beigušies izmantoti tags, tad tuvākos līdzīgos, kas nav izmantoti
Atšķirība starp filter un filter_by
Notes:
Tempo modelis sagatavots
LASER - Multilingual LV text embeddings, iespējams strādā uz LV
TODO:
Tempo
Uzstādit tempo modeli uz API, TensorRT un testēt precizitāti, salīdzināt ar sylnet. Pārliecināties, ka dati ir korekti noglabāti asya-5 nevis pie amir uz datora
Laugh
Atrast bug, uzstādīt uz API. Datu kopas uzmanīgi novietot uz asya-5
Emo Tone of voice.
Paprasīt Arielam un Kristianai Felšai aizpildīt tabulu ar paraugiem, kuri šobrīd nestrādā pēc balss toņa https://www.notion.so/evalds/Emotion-Validation-Audio-6bc1e864d18a40a5be10ff0e06df8493
Implementēt DataSource transformation, lai apmācību laikā mainītu Voice Conversion balss toni randomly Z space un pārbaudīt vai ir pozītīva ietekme uz rezultātu (jauno validācijas kopu)
Translation
Lejupielādēt asya-5 NLLB un pievienot mūsu datu kopām (tur ir 16m tokens, mums pašiem ir ap 20m tokens, ja hipotēze pareiza potenciāls ievērojami labāku modeli iegūt apvienojot)
Palileināt parametru skaitu (salīdzināt arī ar esošo param skaitu tikai ar lielāku datu skaitu)
Apmācīt modeli
TTS
Krišam Saulītim (Evalda students, potenciāli nākotnē AI komandas darbinieks), krsaulitis@gmail.com, 26622206 - nosūtīt pieeju mūsu LV STT datiem, pievienot Krišu github https://github.com/asya-ai/asya-tts-model/ , iedot pieķļuvi HPC un palīdzēt saprast kā palaist apmācību. Šeit ir viņa pētījums par labāko EN TTS modeli http://share.yellowrobot.xyz/quick/2024-1-19-A3684C8F-98FC-41F2-94F9-11C1D4A5D370.pdf Apmācīsim LV TTS un vēlāk liksim virsū VoiceConversion modeļus
PP
Pārliecināties, ka Pauls atgriež datus apmacībai no PP pēc kopējā emo, nodrošinot, ka tiks atgriezti arī text_emo paraugi, kur nenostrādāja balss tonis
Text summary un/vai title model
Pārbaudīt, kas pieejams literatūrā un open-source
Pārbaudīt vari ar openai API varam iegūt kvalitīvu title un summary
! Svarīgi, ka pirms veic summarization, transkriptā salabo gramatiskās klūdas un max salabo tekstu, lai nav neloģisks ar liekvārdībām kā sarunu valodā
TODO:
Sadalīt dataset pa viena parauga sērijām
Apmācīt modeli, ka vienmēr tiek lietoti pāris scouting runs (varētu lietot tādus pašus kādi ir Rapid Optimization, Andrius var iedot info)
Sagatavot, ka arī ar Offline simulator varam vēl papildus rezultātus no katras sērijas nosimulēt randomly
Sagatavot pirmo retention modeli no visiem datiem, kuri mums ir tā, lai varam sākt testēt produkcijā
Sagatvot Alarm datu kopu un uzlikt apmācīties