mean | background | izsutis | krasojums | miza | plaia (plaisa) | trupe | zars | zilejums | |
---|---|---|---|---|---|---|---|---|---|
Iepriekšējais labākais | 0.3653 | 0.9479 | 0.0261 | 0.1903 | 0.7063 | 0.0922 | 0.1255 | 0.3875 | 0.4241 |
apse-asya-v1 | 0.4271 | 0.9425 | 0.0659 | 0.2019 | 0.7173 | 0.173 | 0.2889 | 0.3906 | 0.2811 |
PQ | RQ | SQ | |
---|---|---|---|
Iepriekšējais labākais | 0.0616 | 0.0859 | 0.1988 |
apse-asya-v1 | 0.0764 | 0.0999 | 0.1086 |
Atslēga kā dabūjām labāku modeli:
a) apmācot to ar augstu learning rate
b) turpinot apmācību ilgstoši pēc brīža ko parasti uzskatītu par apmācības beigām, kur kļūdas funkcija bija konverģējusi, bet IoU vēl turpināja uzlaboties
🟣 Violetās līnijas zemāk ir iepriekšējie modeļi ⚪️ Baltās ir jaunais modelis
Kereisā pusē var redzēt, ka Validaion loss ir nestabils un konverģējis, bet kā izrādās IoU turpinās uzlaboties zemākos gradfikos.
Tika salabot jūsu kodā kļūda IoU aprēķniā, kas arī “maskēja” modeļu veiktspēju - Tika rēķināts paraugos, kurus nav, piemēram, zars kā precizitāti 100%, savukārt pareizi ir vispār neņemt aprēķinā šādus paraugus konkrētai klasei, lai tikai uz paraugiem, kur ir defekts rēķināt precizitāti, jo tāpat defekts nenoklāj visu dēli un 100% “par brīvu” iedodot paraugam tiek kropļota realitāte. Pateicoties tām var novērot ka IoU uzlabojas apmacības laikā. Iepriekšējais IoU aprēķins redzams violetajā un rozā līknēs. Kā var redzēt šīs iepriekšējās līknes iet uz augšu un leju, un neļauj novērtēt modeļa kvalitāti. Baltā līkne labāk attēlo modeļa kvalitāti un ļauj redzēt ka apmācība turpinās (atgādinājumam, kļūdas grafiks ir konverģējis un mums šo neparādītu.) Tāpat kā vare redzēt iepriekšējie IoU rezultāti šeit parādoties izskatījās labāki, bet realitātē nav labāk.
Confusion matrix iepriekšējam modelim
Confusion matrix jaunajam modelim