2023-10-04 Meeting #2

 

Reports: https://www.notion.so/27-09-23-166447d49f134defb1b577d229622e0c

Github: https://github.com/arkadijss/Robot_DL

Izpētīju papildus piemērus kā arī Windows var dabūt X11 socket GUI bez VNC strādājam ar Docker https://www.linkedin.com/pulse/running-gui-applications-docker-container-revathi-dhotre/

 

Piemēri kā veidot atskaites pirms tikšanām

Izmantojot Google Docs, Notion, Evernote vai ko citu:

Piemēri atskaitēm: http://share.yellowrobot.xyz/1650910330-example-reports

 

TODO

  1. Kādi ir ROS topics and actions, lai iegūtu Robota pozīcijas, kameru, un sūtīt komandas pārvietoties?

  2. Uzstādīt Gazeboo simulācijas vidi Pepper (un nosūtīt/saņemt kādu no messages / topics robota kontrolei)

  3. Pašreizējiem SLR pētījumiem pievienot Input / Output data shape/structure, lai būtu skaidrība ko īsti dara tie end-to-end modeļi

  4. Kā pēcīzi aprēķina PointNav: 74% SPL, 94% Success?

  5. Atrast vēl vismaz 10 pētījumus tieši par Pepper (vēlams navigation), ko citi iesaka pētīt uz šīs robotu platformas?

  6. Izveidot atskaiti / note, kur aprakstīts un ilustrēts kā darbojas EKF Slam, lai tev būtu izpratne par to, kur ir DL daļas pievienojamas šajos algoritmos

  7. Atrast 10 pētījumus, kur salīdzina SLAM features / feature encoders - piem ORB SLAM, LIDAR based SLAM, YOLO features for SLAM utt. Īpaši svarīgi atrast datasets, metrics un pievieno arī kādas ir features datastructures

    1. Šeit būtu mērķis salīdzināt dāžadas features un kombinacijas kā SLAM inputs, varbūt daļu var notestēt uz datasets vai fiziski ar robotu testēt

  8. Vēl potenciāls pētījumu virziens Exploration, Coverage planning (šis būtu RL)