Reports: https://www.notion.so/27-09-23-166447d49f134defb1b577d229622e0c
Github: https://github.com/arkadijss/Robot_DL
Izpētīju papildus piemērus kā arī Windows var dabūt X11 socket GUI bez VNC strādājam ar Docker https://www.linkedin.com/pulse/running-gui-applications-docker-container-revathi-dhotre/
Izmantojot Google Docs, Notion, Evernote vai ko citu:
Piemēri atskaitēm: http://share.yellowrobot.xyz/1650910330-example-reports
Kādi ir ROS topics and actions, lai iegūtu Robota pozīcijas, kameru, un sūtīt komandas pārvietoties?
Uzstādīt Gazeboo simulācijas vidi Pepper (un nosūtīt/saņemt kādu no messages / topics robota kontrolei)
Pašreizējiem SLR pētījumiem pievienot Input / Output data shape/structure, lai būtu skaidrība ko īsti dara tie end-to-end modeļi
Kā pēcīzi aprēķina PointNav: 74% SPL, 94% Success?
Atrast vēl vismaz 10 pētījumus tieši par Pepper (vēlams navigation), ko citi iesaka pētīt uz šīs robotu platformas?
Izveidot atskaiti / note, kur aprakstīts un ilustrēts kā darbojas EKF Slam, lai tev būtu izpratne par to, kur ir DL daļas pievienojamas šajos algoritmos
Atrast 10 pētījumus, kur salīdzina SLAM features / feature encoders - piem ORB SLAM, LIDAR based SLAM, YOLO features for SLAM utt. Īpaši svarīgi atrast datasets, metrics un pievieno arī kādas ir features datastructures
Šeit būtu mērķis salīdzināt dāžadas features un kombinacijas kā SLAM inputs, varbūt daļu var notestēt uz datasets vai fiziski ar robotu testēt
Vēl potenciāls pētījumu virziens Exploration, Coverage planning (šis būtu RL)