Report: https://www.notion.so/04-10-23-94bc90283e214a15882c56fb30bffff9?pvs=4
Github Repo: https://github.com/ros-naoqi/naoqi_driver https://github.com/ros-naoqi/libqi
https://github.com/ros-naoqi/pepper_dcm_robot http://wiki.ros.org/pepper_dcm_bringup
Kura versija un repo Gazeboo pepper strādā?
Serviss ar kuru kontrolēt pārvietojumu
Sameklēt dokumentāciju /pepper_dcm/WheelB_controller
Cik vadāmi un kā vadāmi ir riteņi, kā var panākt darbības - brauc 1m uz priekšu pagriezies pa 90* grādiem pa labi 1m uz priekšu
Kā pieslēgties peer SSH username & password zemāk
Linux Commands Useful http://share.yellowrobot.xyz/quick/2023-10-17-1BFC2160-7BFC-462D-9DB0-06EEC8850CFA.html
Pepper tesing Plāns:
Connect to SSH to pepper
Check if ROS installed, rostopic list etc.
Run ros topic for movement in SSH
Connect ROS node from another PC to Pepper
Local node jāpalaiž telnet 192.176.1.1 11311
Ja uz pepper ir plaists roscore, tad ši komanda strādās ^
SLR - Object search modeļi
Input - Target attēls, Attēlu vēsture vai SLAM, Output - Trajektorija
SLR - Deep Learning based visual odometry
Input - 2 attēli , Output: dx, dy, dz, dtheta
SLR - kur SLAM ir end-to-end un kā atšķirās ORB SLAM
SLAM - note kā strādā
ViNT (pre-trained)
Inference uz viņu pašu testa kopas
Inference uz Gazeboo simulation
Inference uz reāla robota (RGB attēls)
Mana improvizācija ViNT pieejai, atšķirība, ka jāveic rollout, bet domāju, ka varētu būt precīzāks un labāk izskaidrojams rezultāts.
Generative model input attēls + odometry + history(attēls, odometry) -> output predicted attēls, galvenais z space Vēl ievada arī target attēlu un atrod z vector Veic rollout koku ar visām iespējamām darbībām līdz noteiktam dziļumam Atrod labākio iespejamo trajektoriju no attēla, kur z vector cosine distance tuvākā target z distance