Report: report/notes: https://handsome-green-2fa.notion.site/20-Feb-2024-0310026c8a7b487a9f9238c539513d43?pvs=4
Atkārtot 1:1 eksperimentu ar bibliotēkām, kas bija orģinālajā eksperimentā, lai tiktu līdz tādam pašam rezultātam kā bija paper (AP 40 vs 47.2, AP 75 50+). Ja rezultāti labāki, atrast precīzi kuri parametri mm-detection lib ir nomainīti versijā
Ja rezultāti nav labi, tad veikt nelielu hiper-parametru pārmeklēšanu - iesaku apvienot Raytune ar HEBO (ar ievērojami maz eksperimentu skaitu var atrast labākos params https://github.com/huawei-noah/HEBO). Uzmanīgi dokumentēt visus eksperimentus, lai nav jāveic atkārtoti.
Padomāt kā varētu izmantot Deformable Convolutional Networks (DCN) centroid densities, lai izveidotu metriku, kas nosaka cik precīzi modelis iemācījies atrast objektus. Līdzīgi Class Activation Maps, GradCAM utt https://jacobgil.github.io/pytorch-gradcam-book/Class%20Activation%20Maps%20for%20Semantic%20Segmentation.html
Atrast 20-50 problēmātiskos paraugus COCO un dokumentēt, lai argumentētu, ka AP nemaz nevar augstu sasniegt, jo datu kopas ir netīras
Overleaf pēc parauga izveidot vēl SLR tabulas un aprakstīt:
Modeļu salīdzinājums
Datu kopu salīdzinājums vai Rādītāju salīdzinājums
Kvalitātes vērtēšanas kritēriji
FiftyOne - computer vision tool - segmentation, classification browser
Tādi paši 2 batchsize, resolution neaiztiekot 8 GPUs
memory leak 4 epoch crashed
pretrained imagenet model
Mask-rcnn + Deformamble backbones