2024-01-19 AI Meeting

 

Betija & Adrians

FanApps projekts:

  1. Pieslēgties DB, Serverim

  2. API, SQL alchemy

  3. Github Issues

TODO:

  1. API noņemt update_sources(api_key: str,client_uuid, sources: Source[])

  2. API nepieciešams pievienot funkcijas list_tags, add_tags, edit_tags, delete_tags . Sākotnējos tags mēs paši nodefinēsim vai ar GPT4 ģenerēt piemērotus tagas un tad tos pievienot, ja neeksistē. list_tags vadzētu atgriezt arī info cik daudz fakti ir piesaistīti katram tags, to informāciju vajag glabāt DB nevis katru reizi pa jaunu rēķināt, tag.count_facts piemēram

  3. Jauns reference fails ar jautājumiem un atbilžu variantiem, mūsu risinājumam jāspēj līdzīgā kvalitātē ģenerēt jautājumus: http://share.yellowrobot.xyz/quick/2024-1-15-E4355114-3AD4-48C8-A6CD-5BE4E0665CA1.pdf

  4. generate_questions jāizvēlās faktus kur tags sakrīt 1:1 vai ja beigušies izmantoti tags, tad tuvākos līdzīgos, kas nav izmantoti

  5. Atšķirība starp filter un filter_by

    image-20240119161022688


 

Mārcis & Amir

 

Notes:

  1. Tempo modelis sagatavots

  2. LASER - Multilingual LV text embeddings, iespējams strādā uz LV

 

TODO:

  1. Tempo

    1. Uzstādit tempo modeli uz API, TensorRT un testēt precizitāti, salīdzināt ar sylnet. Pārliecināties, ka dati ir korekti noglabāti asya-5 nevis pie amir uz datora

  2. Laugh

    1. Atrast bug, uzstādīt uz API. Datu kopas uzmanīgi novietot uz asya-5

  3. Emo Tone of voice.

    1. Paprasīt Arielam un Kristianai Felšai aizpildīt tabulu ar paraugiem, kuri šobrīd nestrādā pēc balss toņa https://www.notion.so/evalds/Emotion-Validation-Audio-6bc1e864d18a40a5be10ff0e06df8493

    2. Implementēt DataSource transformation, lai apmācību laikā mainītu Voice Conversion balss toni randomly Z space un pārbaudīt vai ir pozītīva ietekme uz rezultātu (jauno validācijas kopu)

  4. Translation

    1. Lejupielādēt asya-5 NLLB un pievienot mūsu datu kopām (tur ir 16m tokens, mums pašiem ir ap 20m tokens, ja hipotēze pareiza potenciāls ievērojami labāku modeli iegūt apvienojot)

    2. Palileināt parametru skaitu (salīdzināt arī ar esošo param skaitu tikai ar lielāku datu skaitu)

    3. Apmācīt modeli

  5. TTS

    1. Krišam Saulītim (Evalda students, potenciāli nākotnē AI komandas darbinieks), krsaulitis@gmail.com, 26622206 - nosūtīt pieeju mūsu LV STT datiem, pievienot Krišu github https://github.com/asya-ai/asya-tts-model/ , iedot pieķļuvi HPC un palīdzēt saprast kā palaist apmācību. Šeit ir viņa pētījums par labāko EN TTS modeli http://share.yellowrobot.xyz/quick/2024-1-19-A3684C8F-98FC-41F2-94F9-11C1D4A5D370.pdf Apmācīsim LV TTS un vēlāk liksim virsū VoiceConversion modeļus

  6. PP

    1. Pārliecināties, ka Pauls atgriež datus apmacībai no PP pēc kopējā emo, nodrošinot, ka tiks atgriezti arī text_emo paraugi, kur nenostrādāja balss tonis

  7. Text summary un/vai title model

    1. Pārbaudīt, kas pieejams literatūrā un open-source

    2. Pārbaudīt vari ar openai API varam iegūt kvalitīvu title un summary

    3. ! Svarīgi, ka pirms veic summarization, transkriptā salabo gramatiskās klūdas un max salabo tekstu, lai nav neloģisks ar liekvārdībām kā sarunu valodā

     


Reinis

TODO:

  1. Sadalīt dataset pa viena parauga sērijām

  2. Apmācīt modeli, ka vienmēr tiek lietoti pāris scouting runs (varētu lietot tādus pašus kādi ir Rapid Optimization, Andrius var iedot info)

  3. Sagatavot, ka arī ar Offline simulator varam vēl papildus rezultātus no katras sērijas nosimulēt randomly

  4. Sagatavot pirmo retention modeli no visiem datiem, kuri mums ir tā, lai varam sākt testēt produkcijā

  5. Sagatvot Alarm datu kopu un uzlikt apmācīties