2024-12-06 AI Meeting

Mārcis

Report: https://www.notion.so/evalds/2024-12-06-ddd8ce6a83c9427a930b6309b8776faf?pvs=4

Done:

  1. STT fixes ar

    1. loudness normalization

    2. compression

    3. LH/HP

  2. GPT tīrīšana

    1. baigi -> ļoti

  3. Speech Recognition (STT). Implemented Whisper loudness normalization with compression and LP/HP filtering, with waveform comparisons completed⁠

  4. Gramatiņs. Added 130k new samples from scraped forum user comments and cleaned existing data⁠⁠​

  5. Implemented worker-coordinator communication using ZeroMQ⁠

  6. Completed 80% of Pydantic v2 migration with significant performance improvements - up to 10x faster processing⁠ ⁠​ Set up API development environment on asya4 with STT worker configuration

TODO:

  1. API

    1. Atrast, kur ir nākmais bottleneck, nepieciešams workeros sadalīt CPU un GPU daļu 2 dažādos multiprocess (datu apmaiņa var būt caur multiprocess queue) tā, lai nākmais batch vienmēr būtu gatavs. Līdzīgi kā Pytorch apmācībā Dataloader ar num_workers un multiprocessing.

  2. ParkExpert (support)

    1. 👥 Sarunāt zvanu ar Heniņu un Artūru Uldi un palīdzēt izstāstīt kā pārveidot workers tā, lai tie strādātu tāpat kā main API. Viņiem vajag līdzīgu optimization kā main API. Tas, kas ir totāli nepareizi ir, ka katrai kamerai ir savs worker. Nav arī nekāda jēga izmantot shared memory modeli, jo izsaukt varēs tāpat itkai viens forward parallēli, jāpanāk, ka pirms katra call ir jau gatavs batches nevis veic CPU tasks tajā pašā multiprocess.

  3. STT

    1. Real-time STT uzlikt loudness normalization.

    2. Apmācīt ar jaunajiem datiem Real-time STT.

    3. Saņēmām sūdzības par STT kvalitāti salīdzinot ar Tildi, lūdzu apskaties, kā varam uzlabot šo situāciju" https://share.yellowrobot.xyz/quick/2024-12-7-86BF62FD-C390-497F-9F91-F5860FB8E3B5.zip

    4. Saīsinājumus implementēt kā Assitentis prasīja nevis kilograms -> kg, utt

    5. Kā varam uzlabot skaitļu atpazīšanu?

  4. Grāmatiņš

    1. Nevācam caur Google Translate no Eldigen produkcijā datus. Ja nepieciešams tad caur GPT vai Google Translate paši varam Source LV pārtulkot un izmantot apmācībā

    2. Pārliecināties, ka hashtags, emojis saglabājas. šobrīd emoji teksti nomainās sk zemāk screenshot

  5. LLM

    1. Izpētīt labāko quantized Mistral vai LLama model, kuru varētu uzlikt uz RTX4090 un izpētīt ātrumu un precizitāti summary ģenerēšanā (caur translation). Ja ir kāds mazāks modelis, kurš spēj English summary caur prompt engeneering, tad izmēģināt to, lai pēc iespējas mazāk izmantojam RTX.

    2. Intent zero shot classification modeli izpētīt, vai varētu būt lietderīgs.

    3. Sentiment zero shot classification modeli izpētīt, vai varētu būt lietderīgs.

emojis translated into wrong text

image.png

Krišs

Report: https://www.notion.so/evalds/Report-0c116eb887b54cdb9ebf79b355046d9c?pvs=4

Done:

  1. Robocall Update

  1. Text to Speech Progress

TODO:

  1. Pirmais UX, kurā var konfigurēt robocall. Flask struktūras piemēru ņemt no Eldigen (tikai lūdzu neizmantojam SQLAlchemy, esam sapratuši, ka manual postgreSQL SQL ir daudz ātrāks. DB pusi skatīties no main API code).

  2. 👥 Dokumentēt, publicēt un padalīties ar Weights and Biases library Artūram Uldim, Gustavam un Mārcim. Artūram īpaši parādi, kā bildes pievienot.

  3. Implement real-time speech-to-text training with numbers

Arturs Uldis

Report: https://www.notion.so/evalds/2024-12-06-Art-rs-Report-cad681891ac04e5fbf895e4dfd75739f?pvs=4

Done:

  1. Zippyvision

  1. FaradAI

  1. Parkexpert

TODO:

  1. ZippyVision

    1. Salabot weighted loss funkciju, balstoties uz pixel sum pa klasēm, lai zaru pixel būtu ievērojami lielāks loss.

    2. Pārbaudīt grid search ar FocalLossCCE (gamma = 2), Tversky loss funkcijām. 3.⁠ ⁠Uzlabot augmentācijas - ierobežojumi, kurus viņi teica, nevajag pārāk rotēt, bet filip v, fliph, - color defeki un zīmējumi. Dokumentēt kā tu vizuāli augmentē kameras defektus - tos sarkanos pleķus

    3. Grayscale kanāls klāt visam un labākas architectures - DeepLabV3 ar pre-trained (jāsakrīt dokumentācijas input normalizācijas) + citas archs

    4. Iegūt pirmo kopējo Zaru, Mizu modeli, validēt apmācību laikā uz ozola kopas 20% (pārliecināties, ka tie nav iekļauti apmācībā). Validēt arī uz datu kopu kādai, kas nebija labākā iepriekšējos gatavajos modeļos (pārliecināties, ka tie nav iekļauti apmācībā).

    5. Apmācības laikā iekļaut pēdējā test batch bildes weights and biases.

    6. Pārbaudīt IoU rezultātus jau ar iepriekš apmācītiem modeļiem, lai varam pierādīt uzlabojumus

    7. Sagatavot atskaiti ar vizualizācijām un grafikiem.

  2. FaradAI

    1. Evaldam prezentācija datu kopai 3dien no rīta, Evalds pats gatavos atskaiti, bet vajag datus

    2. Pēc iespējasi vairāk paraugus noprocēsēt un pārvietot uz ventspils-1 faradai

    3. Palaist LLM2CLIP uz paraugiem, pēc iespējas vairāk ievākt datus

    4. Vēlāk pieslēgsim manual labeller

  3. ParkExpert

    1. Sarunāt zvanu ar Mārci par ParkExpert workeru pārkodēšanu. Jāievieš batching, NEIZMANTOT shared memory modeli. Katram worker jābūt 2 multiprocess - viens CPU, viens GPU. CPU uzdevums ir sagatavot batches jau uz priekšu, GPU uzdevums ir forward, dati tiek nodoti caur multiprocess queue. Worker nedrīkst būt piesaistīts kādam konkrētam kamerai, jāvar pievienot vairāk workers, kas varēs strādāt paralēli. Jābūt coordinator, kas izda workeram darbu.

    2. Motion detection var uzlabot ar OpenCV OpticalFlow

Gustavs

Report: https://www.notion.so/evalds/06-12-2024-Waterson-Sensor-Research-e20b87fd58e14492a5d91731ac2c856a?pvs=4

Done:

  1. Datu kopas un trūkstošie dati

TODO:

  1. Waterson

    1. Izveidot skriptu, kas var salāgot WT un Bactosense datus kopā pa definētu intervālu - testējam 30, 90, 360 min (iespējams vēlāk veidosim modeli, kur apvienosim visus, šos intervālus un teiksim, ka modelis darbojas jebkurā intervālā starp 30 un 360 min)

    2. Savarīgi! Nepareizi modelēt vērtību Waterson average no 2 punktiem, jāmodelē viss range kurā lēnām notiek bactosense aktivitāte.

    3. WT_P3, Waterson sensoru rādījumiem apstrādāt pēkšņus lēcienus. mums tos vajag atpazīt un sadalīt datu kopu, lai modelis nemācās modelēt šīs situācijas. (Zemāk bilde)

    4. WT_P3 ir lieli caurumi vairāku dienu pediodos, sadalīt datu kopu tā, lai ir contigous dati.

    5. WT_P2 labāk neizmantot, jo ir neizskatās ticami dati.

    6. Izveidot pirmo XGBoost modeli:

      1. Ievade: Waterson X0,X1,X2,Xn dotajam intervālam piem 360min , iekšeji black box funkcijā izrēķinam pusei median un otrai pusei median un no tām deltu. Vai sadalam 30% vs last 30%. Jāpadomā un jāeksperimentē.

      2. Izvade: TOC, TCC, ICC kā deltu klases (-100%+, -50%+, 0%, +50%, +100%) . Regression nebūs labi ar XGBoost

      3. Salīdzināt arī ar CATBoost https://catboost.ai/docs/en/concepts/python-reference_catboostclassifier

    7. Waterson iesaka modelēt arī HNAC, LNAC, HNAP. Par Bactosense merijumiem, papildus esošiem ICC, TCC, DCC, mēs iesakam analīzē ņemt vērā arī HNAC, LNAC, HNAP rādījumus, lai palīdzētu novērtēt izmaiņas. Šiem parametriem vajadzētu būtiski palīdzēt novērtēt izmaiņu dinamikas. " HNAC: Concentration of bacteria with a high nucleic acid content. LNAC: Concentration of bacteria with a low nucleic acid content.HNAP: Percentage of bacteria with a high nucleic acid content." https://www.bnovate.com/bactosense-cartridge. Pielikumā arī screenshot no Bactosense mājaslapas.

  2. FaradAI

    1. Sagatavot atskaiti, kuru varam rādīt konferences laikā

Reinis

Report: https://www.notion.so/evalds/2024-12-06-Report-039dcdac48fa414697ad5914cb7c0176?pvs=4

Done:

  1. Bikus Project Updates

  1. Eldigen Project Updates

  1. Other Activities

TODO:

  1. BIKUS Jābūt atskaitei, kur esam marķējuši primāri NETīROS failus, jo tīrajos būs viegli atpazīt (ja kļūdos saki reini)

    1. 50-100 files rindas, kolonas (domāju kā comments iekš excel? uz pirmajām šūnām rindās un kolonās)

    2. Jābūt atskaitei par to cik marķējumi parādās netīrajos failos (nomarķējam pāris arī tīros)

    3. Jāizstrādā prompt based algoritms, kurš rindu vai kolonu pārvērš tekstā un tad salīdzina ar tām, kas ir ielādētas mūsu datu kopā, atrodot piederību nomarķējam konkrēto rindu, kolonu neredzētajā excel (arī varētu kā comment iekš python), lai samazinātu, ka tā nav NP pārmeklēšana pa pāriem varētu lietot word embeddings vai kā citādāk ielādēt sākotnēji līdzīgas rindas kolonas. Alogritmam jāņem vērā blakus esošaās rinas, kolonas un sheet

    4. ielādējam jau datus JSON

    5. Nodot instrukcijas annai kā marķēt datus

  2. Ja nepieciešami degoši updates Eldigen/Tele2, tad palīdzēt

  3. Tiklīdz BIKUS tiks pabeigts mums ir citi savarīgi AI uzdevumi ārpus Eldigen

Adrians

Report: 🔴 Nav report, centīšos nodot SportaCentrs projektu

TODO:

  1. Atrisināt pēc iespējas vairāk problēmas ar Eldigen. Svarīgi palīdzēt pabeigt Document Checker.

  2. Tiklīdz nostabilizēsies Eldigen, plānoti nākamie AI uzdevumi ārpus Eldigen.

Betija

Report: 🔴 Nav report

TODO:

  1. Atrisināt pēc iespējas vairāk problēmas ar Eldigen. Svarīgi palīdzēt pabeigt Document Checker.

  2. 🔴 Neaizmirsti par Maģistra darbu, jābūt progresam

  3. Tiklīdz nostabilizēsies Eldigen, plānoti nākamie AI uzdevumi ārpus Eldigen.