2023-02-22 PhD Research Topics 2023

 

  1. LLM Adversial Attack to extract original data from model or bypass safety

  2. LLMs/ Codex models for generating automated unit tests or UI tests

  3. Analysis of best text embedding models to extract specific features like - text structure, text sentiment, text meaning etc.

  4. Effect of age to voice or face re-identification or classification (how long biometric data can be reliable)

  5. Best NLP Text Sentiment analysis using latest datasets (Latvian)

  6. Best NLP translation models, competition (Latvian, Lithuanian, Estonian, English)

  7. Train ChatGPT / InstructGPT in Latvian using translated instruct datasets and scraped datasets

  8. Reinforcement learning using LLM as world model or/and short term policy

  9. Combine CycleGAN with UNet pix2pix or Stable difussion to produce better quality style transfer images

  10. Speech to Speech, Voice Conversion, lai noņemtu akcentus (salīdzināt metodes)

  11. Disentangling autoencoder for better feature seperation in re-identification tasks (combing autoencoders and clustering methods)

  12. Batch Norm pre-calculate before each batch and override learnable gamma beta

  13. Music style transfer - models that fix wrong notes, simulate guitar effects

  14. Curriculum Learning KL un samazināta varbūtība katrai klasei - train with KL not CCE (gradualy change labels)

  15. Text to speech or Speech to text - study effects of tempo. Make models resiliant to tempo and avoid squirel voice

  16. Time-series classification task comparative analysis between LSTM, Phased-LSTM and Transformers. RNN with attention as good as transformer, but more resource efficient https://github.com/BlinkDL/ChatRWKV

  17. Multi-pass GANs UNet+L1 -> CycleGAN vai Super Resolution GAN http://share.yellowrobot.xyz/upic/62c7c95b609fb372f645d5397dbfce76_1676969992.png

  18. Reinforcement learning - Energy based models + World models (https://openreview.net/pdf?id=BZ5a1r-kVsf, https://www.youtube.com/watch?v=jSdHmImyUjk&t=2055s JEPA)

  19. Reinforcement learning - Q-Learning updates - Learnable “confidence”, Q threshold pie kura izpilda vēlamo darbību, citādāk neko nedara.

  20. Hyper parameter sampling strategies - grid search, plackett burman, random search, gaussian process optimization (comparing raytune)

  21. Best strategy for changing Width, Height and Channels for Encoders / Decoders in Auto-encoders and Classification Convnets within architecture

  22. Reducing effects of imbalanced datasets - can architecture help, order of labels, sampling methods, what weights better to use

  23. Zero shot learning - Contrastive - Triplet loss Auxiliary losses

  24. Curriculum Learning KL un pakapeniski pieaug varbūtība katrai klasei līdz ground truth

  25. GAN discriminator curriculum

  26. Attention based ConvNet, new type of architctures

  27. Reinforcement learning - Energy based models + World models (https://openreview.net/pdf?id=BZ5a1r-kVsf, https://www.youtube.com/watch?v=jSdHmImyUjk&t=2055s JEPA)

  28. Reinforcement learning - Q-Learning updates - Learnable “confidence”, Q threshold pie kura izpilda vēlamo darbību, citādāk neko nedara.

  29. Hyper parameter sampling strategies - grid search, plackett burman, random search

  30. Time-series classification task comparative analysis between LSTM, Phased-LSTM and Transformers

  31. Best strategy for changing Width, Height and Channels for Encoders / Decoders in Auto-encoders and Classification Convnets

  32. Reducing effects of imbalanced datasets - can architecture help, order of labels, sampling methods, what weights better to use

  33. AI Text To Speech ar kontrolējamu runas ātrumu - paātriniāt grāmatu lasīšanu bez squirel balss.

  34. Voice Style Transfer to remove accents

  35. Zero shot learning - Contrastive - Triplet loss Auxiliary losses

  36. GAN discriminator curriculum learning effects

  37. Attention based ConvNets (other attention mechanisms similar to transformer, but using spatial 2D kernel function)


    
Balss stila pārnese, izmantojot dziļo māšīnmācīšanosVoice style transfer using deep learning methodsPēdējos gados ir bijusi ievērojama pētnieciskā interese par stila pārneses uzdevumiem attēlu datu kopām, taču tās pašas metodes var izmantot arī audio datu kopām. Pētījuma mērķis ir salīdzināt dažādus GAN un difūzijas modeļus ar runātāju identitātes stila pārnesi, izmantojot neapstrādātus audio datus. Tāpat, varētu salīdzīnāt rezultātus, izmantojot teksta un runas modeļus ar personalizētiem runas stiliem. Pētījumi tiktu veikti PyToch, bet iepriekšējas zināšanas nav nepieciešamas. Tomēr ir svarīgi, lai students būtu spējīgs augstākajā matemātikā, lineārajā algebrā, varbūtības teorijā, statistikā un Python programmēšanā.In recent years, there has been significant research interest in style-transfer tasks for image datasets, but the same methods can be applied for audio datasets. The goal of the research is to compare different GAN and diffusion-based models on speaker identity style transfer using raw audio inputs. Additionally, research could compare results using text-to-speech models with personalized speech styles. Research would be conducted in PyTorch, but prior knowledge is not necessary. However, it is very important that the student is capable at calculus, linear algebra, probability theory, statistics, and Python programming.
Jauns modelis runas enerģijas noteikšanai, izmantojot dziļo mašīnapmācībuEstimation of the energy of the speech using deep learningStatistikā balstītie algoritmi ir sasnieguši savas precizitātes limitus, lai noteiktu balss toņa augstumu un dispersiju, bet dziļās mašīnapmācības metodes, līdzīgi kā citos uzdevumos, varētu sasniegt vēl augstāku precizitāti. Pētījuma mērķis ir izveidot datu kopu no jau eksistējošām datu kopām un izveidot modeli, kas var prognozēt enerģijas līmeni pēc balss audio parauga. Darbs ar RTU HPC superdatoru un PyTorch. Studentam nepieciešamas labas zināšanas augstākajā matemātikā, statistikā un varbūtību teorijā vai vismaz liela vēlēšanās un spēja ātri tās apgūt.Statistical algorithms to evaluate the energy of speech using pitch and variance have reached their limits, but as in other fields Deep Learning methods with proper scale can achieve higher performance. The goal of the thesis will be to create data-set from existing data-sets and to create model that can estimate energy of the speech for given audio sample. The work will require to use RTU HPC supercomputer and PyTorch. The work will also require a strong mathematical understanding of calculus, statistics and probability theory.
Jauns dziļās māšīnmācības modelis runas tempa noteikšana, izmantojot dziļo mašīnapmācībuNovel model for estimation of the tempo of the speech using Deep LearningNo runas iegūtais teksts un vārdi minūtē ir vāja metrika, lai novērtētu runas tempu, jo dažādām valodām ir dažāds skaits zilbju visvairāk lietotajos vārdos. Pētījuma mērķis ir izveidot datu kopu no jau eksistējošām datu kopām un izveidot modeli, kas var prognozēt runas tempu pēc balss audio parauga. Darbs ar RTU HPC superdatoru un PyTorch. Studentam nepieciešamas labas zināšanas augstākajā matemātikā, statistikā un varbūtību teorijā vai vismaz liela vēlēšanās un spēja ātri tās apgūt.Speech-to-Text and then Words-Per-Minute is a poor way to estimate the tempo of the speech as different languages have a different number of syllables in most common words. The goal of the thesis will be to create data-set from existing data-sets and to create a model that can estimate the tempo of the speech for a given audio sample. The work will require to use RTU HPC supercomputer and PyTorch. The work will also require a strong mathematical understanding of calculus, statistics and probability theory.
Partiju normalizācijas metožu salīdzinošā analīze klasifikācijas uzdevumiem dziļajā mašīnapmācībāComparative analysis of mini-batch normalization methods for classifiation in Deep LearningPēdējos gados ir tikušas publicētas vairākas jaunas no mini-partijām neatkarīgas regularizācijas metodes dziļajā mašīnapmācībā. Pētījuma mērķis ir izpētīt šo metožu efektivitāti un, iespējams, radīt jaunu regularizācijas metodi. Plānots pētīt FRN, GroupNorm utt. Darbs ar RTU HPC superdatoru un PyTorch. Studentam nepieciešamas labas zināšanas augstākajā matemātikā, statistikā un varbūtību teorijā vai vismaz liela vēlēšanās un spēja ātri tās apgūt.In recent years many novel batch size-independent regularization methods in deep learning have been published. The goal will be to evaluate their effectiveness and possibly create novel regularization function. The work would require research in FRN, GroupNorm etc. The work will require to use RTU HPC supercomputer and PyTorch. The work will also require a strong mathematical understanding of calculus, statistics and probability theory.
Robot Pepper movement control using deep learning methodsRobota Pepper pārvietošana, izmantojot dziļo māšīnmācīšanosŠobrīd Rīgas Tehniskajai universitātei pieder robots Pepper, kas ir viena no populārākajām robotu platformām pētniecībai. Pēdējos gados ir ievērojami attīstījusies pētniecība attiecībā uz robotu kontroli, izmantojot dziļās mācīšanās metodes. Šajā pētījumā galvenā uzmanība tiktu pievērsta vienkāršu rokas uzdevumu īstenošanai navigācijai, izmantojot kameru un sensorus. Pētījumos varētu salīdzināt dažādas SLAM metodes un to, kā dziļās mācīšanās metodes var uzlabot rezultātus. Fiziski un simulēti eksperimentālie rezultāti salīdzinātu dažādu metožu efektivitāti. Pētījumi tiktu veikti PyToch, bet iepriekšējas zināšanas nav nepieciešamas. Tomēr ir svarīgi, lai students būtu spējīgs augstākajā matemātikā, lineārajā algebrā, varbūtības teorijā, statistikā un Python programmēšanā.Currently, Riga Technical University owns the Pepper robot, which is one of the most popular robot platforms for research. In recent years there has been significant development in research regarding robot control using deep learning methods. This research would focus on implementing simple arm tasks for navigation using camera and sensors. Research could compare different SLAM methods and how deep learning methods can improve results. Physical and simulated experimental results would compare the effectiveness of different methods. Research would be conducted in PyTorch, but prior knowledge is not necessary. However, it is very important that the student is capable at calculus, linear algebra, probability theory, statistics, and Python programming.
Robot Baxter arm control using deep learning methodsRobota Baxter rokas kontrole, izmantojot dziļo mašīnmācīšanosŠobrīd Rīgas Tehniskajai universitātei pieder robots “Baxter”, kas ir viena no populārākajām robotu platformām pētniecībai. Pēdējos gados ir ievērojami attīstījusies pētniecība attiecībā uz robotu kontroli, izmantojot dziļās mācīšanās metodes. Šajā pētījumā galvenā uzmanība tiktu pievērsta vienkāršu rokas kustību uzdevumu īstenošanai, piemēram, objektu sagrābšanai, turēšanai un pārvietošanai, izmantojot dažādas uz dziļo mācīšanos balstītas pieejas. Fiziski un simulēti eksperimentālie rezultāti salīdzinātu dažādu metožu efektivitāti. Pētījumi tiktu veikti PyToch, bet iepriekšējas zināšanas nav nepieciešamas. Tomēr ir svarīgi, lai students būtu spējīgs augstākajā matemātikā, lineārajā algebrā, varbūtības teorijā, statistikā un Python programmēšanā.Currently, Riga Technical University owns the Baxter robot, which is one of the most popular robot platforms for research. In recent years there has been significant development in research regarding robot control using deep learning methods. This research would focus on implementing simple arm tasks such as grabbing, holding, and moving objects using different deep learning-based approaches. Physical and simulated experimental results would compare the effectiveness of different methods. Research would be conducted in PyTorch, but prior knowledge is not necessary. However, it is very important that the student is capable at calculus, linear algebra, probability theory, statistics, and Python programming.
Reinforcement learning learning comparison with rollout methods using world models and energy modelsStimulētās māšinmācīšanās salīdzināšana ar pasaules un enerģijas modeļu metodēmStimulētā māšīnmācīšanās pārspējusi cilvēka spējas gandrīz visās datorspēlēs un arī dāžādos praktiskos uzdevumos, taču to ir ārkārtīgi grūti apmācīt lielā hiperparametru skaita dēļ un neprognozējamās darbības dēļ. Kā alternatīvu var izmantot pasaules modeļus un pārmeklēšanas algoritmus kā arī enerģijas modeļu metodi. Šobrīd ir atvērta pētījumu tēma šo metožu salīdzināšanai kādā no datorspēļu uzdevumiem.Reinforcement machine learning has outperformed human abilities in almost all computer games and also in a variety of practical tasks, but it is difficult to train because of the high number of hyperparameters and the unpredictable states. Alternatively, world models and search algorithms, as well as energy model method, can be used. There is currently an open research topic to compare these methods in one of the computer game tasks.
Mixup, dropout un citu normalizācijas metožu salīdzinošā analīze klasifikācijas uzdevumiem dziļajā mašīnapmācībāComparative analysis of mixup, dropout and other normalization methods for classifiationin Deep LearningPēdējos gados dziļajā mašīnapmācībā ir tikušas publicētas vairākas jaunas regularizācijas funkcijas un datu augmentācijas metodes, lai iegūtu regularizāciju. Pētījuma mērķis ir izpētīt šo metožu efektivitāti un, iespējams, radīt jaunu regularizācijas funkciju vai datu augmentācijas metodi. Darbs ar RTU HPC superdatoru un PyTorch. Studentam nepieciešamas labas zināšanas augstākajā matemātikā, statistikā un varbūtību teorijā vai vismaz liela vēlēšanās un spēja ātri tās apgūt.In recent years many novel regularization methods in deep learning have been published. Some of them work with the data, others work with the model itself. The goal will be to evaluate their effectiveness and possibly create a novel regularization method either on the data or function side. The work will require to use RTU HPC supercomputer and PyTorch. The work will also require a strong mathematical understanding of calculus, statistics and probability theory.
Jauna metode iegultņu vektoru klasterizācijai, izmantojot temporālo informācijuNovel method for embeddings clustering using temporal informationRunātāju sadalīšana audio paraugā, izmantojot latento vektoru klasterizāciju ir sarežģīts uzdevums, kuru varētu atvieglot iekļaujot klasterizācijas algoritmā temporālo informāciju. Darba mērķis ir izveidot algoritmu vai modeli dziļajā mašīnapmācībā, lai iegūtu precīzāku klasterizāciju, izmantojot temporālo informāciju. Darbs ar RTU HPC superdatoru un PyTorch. Studentam nepieciešamas labas zināšanas augstākajā matemātikā, statistikā un varbūtību teorijā vai vismaz liela vēlēšanās un spēja ātri tās apgūt.Diarization of multiple entities in the sample using embedding vector clustering is a challenging task, but one that is used in many fields, for example, speaker recognition in voice samples. The goal of the thesis would be to encode temporal information to achieve better clusterization. The work will require to use RTU HPC supercomputer and PyTorch. The work will also require a strong mathematical understanding of calculus, statistics and probability theory.
Jauna metode iegultņu vektoru izvēlei tripletu apmācības uzlabošanai, izmantojot kompresijas algoritmusNovel method for embeddings sampling for triplet loss using compression algorithmsLatentie vektori, kurus apmāca, piemēram ar Trīnīšu Kļūdas funkciju ir visapkārt mūsu ikdienā, piemēram, Apple FaceID, balss un pirksta nospiedumu verifikācijas risinājumos. Paraugu izvēle no definētas datu-kopas šai kļūdas funkcijai ir kritiski svarīga, lai iegūtu labus rezultātus. Pētījuma mērķis ir izveidot jaunu paraugu izvēlēšanās algoritmu. Darbs ar RTU HPC superdatoru un PyTorch. Studentam nepieciešamas labas zināšanas augstākajā matemātikā, statistikā un varbūtību teorijā vai vismaz liela vēlēšanās un spēja ātri tās apgūt.Embeddings models that are trained using triplet loss are used all around us, for example, in Apple FaceID, Voice identification, Iris scanners etc. Sample mining in Triplet loss training is a critical part of the success of the training process. The goal of the thesis would be to create a novel sample mining algorithm to improve the selection of samples for training iterations. The work will require to use RTU HPC supercomputer and PyTorch. The work will also require a strong mathematical understanding of calculus, statistics and probability theory.
Salīdzinošā analīze Beiesa neironu tīklu stabilitāteiComparative analysis of Robustness of Bayes Neural NetsPēdējos gados dziļās mašīnapmācības metode ir sasniegušas līdzīgus rezultātus kā Variances Inferences metodes. Beiesa Neironu Tīkli sniedz pārliecības līmeni prognozēm, kurš palīdz uzlabot rezultātus un stabilitāti modeļiem. Darba mērķis ir izvērtēt jaunākās metodes šādu modeļu trenēšanai un, iespējams, piedāvāt jaunas metodes. Darbs ar RTU HPC superdatoru un PyTorch. Studentam nepieciešamas labas zināšanas augstākajā matemātikā, statistikā un varbūtību teorijā vai vismaz liela vēlēšanās un spēja ātri tās apgūt.In recent years Deep Learning methods have achieved comparable results to Variational Inference methods. Bayesian Neural Networks can provide a confidence level of predictions that would improve the robustness of the results of Deep Learning Models. The goal of the thesis would be to evaluate these properties and possibly invent novel methods. The work will require to use RTU HPC supercomputer and PyTorch. The work will also require a strong mathematical understanding of calculus, statistics and probability theory.
Meta apmācība DDQN hiper-parametriem dziļās stimulētās mašīnapmācības rezultātus datorspēļu vidēsNovel method to improve DDQN with hyper parameter meta-learning for computer game environmentsDDQN ar Varavīksnes DQN kā metodes sevi ir pierādījušas dziļās stimulētās mašīnapmācības uzdevumu risināšanā, kur pamatā tiek izmantota Q-vērtības funkcija. Diemžēl, šīm metodēm ir ļoti daudz hiper-parametru, kuru izvēle apgrūtina apmācības procesu. Pētījuma mērķis ir samazināt hiper-parametru skaitu izmantojot apmācāmus modeļus vai algoritmus hiper-parametru vērtību maiņai apmācības laikā. Darbs ar RTU HPC superdatoru un PyTorch. Studentam nepieciešamas labas zināšanas augstākajā matemātikā, statistikā un varbūtību teorijā vai vismaz liela vēlēšanās un spēja ātri tās apgūt.DDQN together with Rainbow DQN has shown the state of the art results in Deep Reinforcement learning that is based on Q-Value function. Unfortunately, these models require a large number of hyperparameters. The goal of the thesis would be to reduce the number of hyper-parameters using learnable hyper-parameter scheduling models. The work will require to use RTU HPC supercomputer and PyTorch. The work will also require a strong mathematical understanding of calculus, statistics and probability theory.