Būs nejauši izvēlēti 20 jautājumi no sekojošajiem
Apvilkt vienu pareizo atbildi! (apvelc skaitli)
Kurš apgalvojums ir pareizs?
Mākslīgais intelekts mūsdienās pārsvarā ir sarežģīta datorprogramma, kas galvenokārt sastāv no programēšanas likumiem
Mākslīgais intelekts mūsdienās pārsvarā ir matemātisks modelis, kas sastāv galvenokārt sastāv no matemātiskiem vienādojumiem
Mākslīgais intelekts mūsdienās pārsvarā ir sarežģīta datorprogramma, kas galvenokārt sastāv no eksperta zināšanām
No kā mākslīgais intelekts mācās?
Eksperta izveidotiem likumiem
Datiem
Programētāja izveidotiem likumiem
Kuri no dotajiem piemēriem mākslīgā intelekta modelī varētu būt ievaddati?
Varbūtība, ka klients atteiksies no pakalpojuma
Cik reizes klients ienācis sistēmā pēdējās 10 dienās
Modeļa svaru vērtības
Kuri no dotajiem piemēriem mākslīgā intelekta modelī varētu būt izvades dati?
Varbūtība, ka klients atteiksies no pakalpojuma
Cik reizes klients ienācis sistēmā pēdējās 10 dienās
Modeļa svaru vērtības
Lai prognozētu produkta cenu, kāda tipa modelis nepieciešāms?
Regresijas
Klasifikācijas
Numerācijas
Lai prognozētu vai klients atteiksies no pakalpojuma, kāda tipa modelis nepieciešams?
Regresijas
Klasifikācijas
Numerācijas
Kurā vidē parasti apmāca Mākslīgo intelektu?
Excel
Python
Power BI
Kādas datu kopas nepieciešamas, lai apmācītu modeli, kuru varētu lietot produkcijā?
Apmācību kopa
Testa kopa
Validācijas kopa
Apmācību, Testa, Validācijas kopas (Train, Test, Validation)
Kurš faktors visvairāk ietekmē modeļa precizitāti?
Apmācības atrums
Nesabalnsēts paraugu skaits katrā klasē apmācību datu kopā
Paraugu dažādība datu kopā
Kādam pielietojumam mākslīgais intelekts nebūtu efektīvs?
Teksta sludinājumu rakstīšanai
Paroļu un lietotājvārdu pārbaudei autorizējoties mājaslapās
Krāsojamo grāmatu izgatavošanai bērniem
Mūzikas komponēšanai
Cik līdzīgs ir mākslīgais dziļo neironu tīkla modelis cilvēka dabiskajam neironu tīkla modelim?
Gandrīz identisks, kā to pierāda lielie valodas modeļi, attēlu modeļi un citi modeļi
Ļoti līdzīgs, jo tas modelē bioķīmiskos procesus kā aktivizācijas izpildās laikā
Nav līdzīgs, jo mākslīgais neironu tīka modelis ir matemātisks un izpildās atšķirīgi no cilvēka dabiskā neironu tīkla
Kura darbību secība atbilst dziļo neironu tīkla modeļu apmācībai?
Datu normalizēšana, Datu sadalīšana kopā, Modeļa izveide, Kļūdas funkcijas izvēle, Papildus metriku izvēle, Testa cikls, Validācijas cikls, Epohas, Apmācību cikls, Atpakaļizplatīšanās
Datu normalizēšana, Datu sadalīšana kopās, Modeļa izveide, Epohas, Apmācību cikls, Atpakaļizplatīšanās, Kļūdas funkcijas izvēle, Papildus metriku izvēle, Testa cikls, Validācijas cikls
Datu normalizēšana, Datu sadalīšana kopās, Modeļa izveide, Kļūdas funkcijas izvēle, Papildus metriku izvēle, Epohas, Apmācību cikls, Atpakaļizplatīšanās, Testa cikls, Validācijas cikls
Ko nozīmē Epoha mākslīgo neironu tīklu apmācības procesā?
Tiek apskatīti visi paraugi apmācību kopā un var būt daudzas Epohas vienā apmācību procesā
Datu normalizācijas metode, kura noņem ekstrēmas vērtības
Tiek apskatīti visi paraugi apmācību kopā un var būt tikai viena Epoha apmācību procesā
Tiek apskatīti validācijas paraugi pēc apmācības
Ja MSE kļūdas funkcijas skaitliskā vērtība ir 0.5, tad pēc viena apmācības soļa skaitliskā vērtība visticamāk būs:
0.6
0.5
0.4
RNN parasti izmanto, lai:
Atpazītu vairākus obektus attēlā
Prognozētu akciju cenas no biržas datiem
Prognozētu auto cenas no sludinājuma
ConvNet bez datu augmentācijas apmācības laikā ir spējīgs atpazīt:
Attēlā pārvietotus objektus
Attēlā pārvietotus un pagrieztus objektus
Attēlā pārvietotus, palielinātus un pagrieztus objektus
Iepriekš apmācītā GRU svari W katrā laika solī:
ir atšķirīgi
ir vienādi
nav noteikts
Transformer modelis balstās uz:
Atmiņu mainīgā slēptajā vektorā h_t
Uzmanības mehānismu
Abiem
Kura komponente ir svarīgākā ChatGPT vaicājuma inženierijā, lai panāktu kvalitatīvu atbildi?
Vaicājuma formulēšana pēc iespejas īsākā un precīzākā formā
Vaicājuma formulēšana pēc iespējas garākā un plāšākā formā
Faktu iekopēšana vaicājumā
Kas notiks, ja turpināsiet uzdot vairākus vaicājumus par dažādām tēmām pēc kārtas vienā un tajā pašā ChatGPT sessijā?
Valodas modelis sāks kopēt saturu no iepriekšējiem jautājumiem tālākajās atbildēs
Tas neietekmē valodas modeļa darbību
Valodas modelis apjuks un nezinās ko atbildēt
Kā atšķiras Denoising-Auto-Encoder (DAE) no Variational-Auto-Encoder (VAE)?
Atšķiras ar ievades-izvades datiem
Atšķiras ar kļūdas funkciju
Atšķiras ar to, ka VAE netiek apmācīts ar SGD (Stohastic gradient descent), bet izmanto Variational Inference apmācībai
Kam izmanto A2C, PPO modeļus?
Lai apmācītu kosmosa kuģa sensoru savienošanu (sensor fussion)
Lai apmācītu ChatGPT atbildēt ar atbildēm, kuras cilvēki parasti sagaida čatā
Lai apmācītu prognozēt akciju cenas
Kā atšķirās ViT (Vision Transformer) no GPT tipa Transformers?
Identiski, nav atšķirību
ViT galvenā atšķirība no GPT ir tā, ka sākotnejos slāņos attēls tiek sadalīts pa apgabaliem, tad ar Linear Layer tiek padots Transformer
ViT galvenā atšķirība no GPT ir tā, ka beigās nav transponēta vārdu iegultņu matrica (Word Embedding)
Kā atšķiras UNet un YOLO modeļi?
UNet veic semantisko segmentāciju, bet YOLO objektu atpazīšanu
UNet veic semantisko segmentāciju un spēj atpazīt katru objektu atsevišķi, bet YOLO objektu atpazīšanu, kur visi objekti no vienas klasestiek atpazīti kopā
UNet veic instanču segmentāciju, bet YOLO objektu atpazīšanu
Kā atškiras DenseNet no ResNet?
ResNet katram blokam ir viens lēciena savienojums, izmantojot saskaitīšanu, bet DenseNet ir viens lēciena savienojums, izmantojot reizināšanu
ResNet katram blokam ir viens lēciena savienojums, izmantojot reizināšanu, bet DenseNet ir vairāki lēcieni savienojot vairākus slāņus uz priekšu, izmantojot reizināšanu
ResNet katram blokam ir viens lēciena savienojums, izmantojot saskaitīšanu, bet DenseNet ir vairāki lēcieni savienojot vairākus slāņus uz priekšu, izmantojot saskaitīšanu
Ko modelē DQN, DDQN?
Stāvokļa vērtības funkciju
Q-Politikas funkciju, kura atgriež varbūtības darbībām
Prognozēto kumulatīvo balvu funkciju stāvokļu un darbību trajektorijai
Kā iekodēt Laika iegultnes taloniem Transformer modelī?
Izmantojot kosīnusa-sīnusa hard-coded tabulu ar iegultnēm
Izmantojot apmācāmu iegultņu tabulu
Abos veidos
Kas ir matricu skalārais reizinājumus (dot product)?
Matemātiska operācija, kura iegūst perpendikulāru vektoru vai matricu starp ievades vektoriem
Matemātiska operācijas, kura veic matricu transformāciju, izmantojot reizināšanu jebkurās dimensijās
Algoritms, kas izmanto saskaitīšanu un reizināšanu pedējās 2 dimensijās jebkurās matricās
Kas ir Lineārais slānis jeb funkcija mākslīgajos neironu tīklos?
Matricas vektoriālais reizinājums
Matricas skalārais reizinājums un nobīde ar saskaitīšanu
Lineārās regresijas algoritms
Kāpēc nepieciešama partīciju normalizācija (Batch norm) pirms aktivizācijas funkcijas?
Lai novērstu pārapmācīšanos (overfit)
Lai novērstu mirušos neironus (dead neurons)
Lai novērstu noslieci uz vienu klasi prognozēs
Kurš apgalvojums ir pareizs?
Mākslīgais intelekts mūsdienās ir sarežģīta datorprogramma, kas galvenokārt sastāv no programēšanas likumiem
Mākslīgais intelekts mūsdienās ir matemātisks modelis, kas sastāv galvenokārt sastāv no matemātiskiem vienādojumiem
Mākslīgais intelekts mūsdienās ir sarežģīta datorprogramma, kas galvenokārt sastāv no eksperta zināšanām
No kā mākslīgais intelekts mācās?
Eksperta izveidotiem likumiem
Datiem
Programētāja izveidotiem likumiem
Kuri no dotajiem piemēriem mākslīgā intelekta modelī varētu būt ievaddati klasifikācijas modelim?
Varbūtība, ka klients atteiksies no pakalpojuma
Cik reizes klients ienācis sistēmā pēdējās 10 dienās
Modeļa svaru vērtības
Kuri no dotajiem piemēriem mākslīgā intelekta modelī varētu būt izvadesdati klasifikācijas modelim?
Varbūtība, ka klients atteiksies no pakalpojuma
Cik reizes klients ienācis sistēmā pēdējās 10 dienās
Modeļa svaru vērtības
Lai prognozētu produkta cenu, kāda tipa modelis nepieciešāms?
Regresijas
Klasifikācijas
Numerācijas
Lai prognozētu vai klients atteiksies no pakalpojuma, kāda tipa modelis nepieciešams?
Regresijas
Klasifikācijas
Numerācijas
Kurā vidē parasti apmāca Mākslīgā intelekta modeļus?
Excel
Python
Power BI
Kādas datu kopas nepieciešamas, lai apmācītu modeli, kuru varētu lietot produkcijā?
Apmācību kopa
Testa kopa
Validācijas kopa
Apmācību, Testa, Validācijas kopas (Train, Test, Validation)
Kurš faktors visvairāk ietekmē modeļa precizitāti?
Apmācības atrums
Nesabalnsēts paraugu skaits katrā klasē apmācību datu kopā
Paraugu dažādība datu kopā
Kādam pielietojumam mākslīgais intelekts nebūtu efektīvs?
Teksta sludinājumu rakstīšanai
Paroļu un lietotājvārdu pārbaudei autorizējoties mājaslapās
Krāsojamo grāmatu izgatavošanai bērniem
Mūzikas komponēšanai
Kādiem nolūkiem varētu būt noderīga klasterizācija un kategorizēšana, izmantojot k-Means algorimu?
Klasificēt dzīvnieku attēlus
Piedāvāt jaunus produktus klientiem, izmantojot klientu pirkumu datu vēsturi
Ģenerēt tekstu reklāmām
Prognozēt cenu jaunam produktam, kurš ievērojami atsķiras no visiem esošajiem produktiem
Kādiem nolūkiem varētu izmantot lēmumu pieņemšanas koku algoritmus kā ID3?
Noteikt iemeslus kāpēc klients nopirka esošu produktu
Noteikt ar kādu varbūtību ārā līs lietus
Noteikt produkta cenas skaitlisko vērtību
Cik līdzīgs ir mākslīgais dziļo neironu tīkla modelis cilvēka dabiskajam neironu tīkla modelim?
Gandrīz identisks, kā to pierāda lielie valodas modeļi, attēlu modeļi un citi modeļi
Ļoti līdzīgs, jo tas modelē bioķīmiskos procesus laikā
Nav līdzīgs, jo mākslīgais neironu tīka modelis ir matemātisks un izpildās ļoti atšķirīgi no cilvēka dabiskā neironu tīkla
Kura darbību secība atbilst dziļo neironu tīkla modeļu apmācībai?
Datu normalizēšana, Datu sadalīšana kopā, Modeļa izveide, Kļūdas funkcijas izvēle, Papildus metriku izvēle, Testa cikls, Validācijas cikls, Epohas, Apmācību cikls, Atpakaļizplatīšanās algoritms (SGD)
Datu normalizēšana, Datu sadalīšana kopās, Modeļa izveide, Epohas, Apmācību cikls, Atpakaļizplatīšanās algoritms (SGD), Kļūdas funkcijas izvēle, Papildus metriku izvēle, Testa cikls, Validācijas cikls
Datu normalizēšana, Datu sadalīšana kopās, Modeļa izveide, Kļūdas funkcijas izvēle, Papildus metriku izvēle, Epohas, Apmācību cikls, Atpakaļizplatīšanās algoritms (SGD), Testa cikls, Validācijas cikls
Ko nozīmē Epoha mākslīgo neironu tīklu apmācības procesā?
Tiek apskatīti visi paraugi apmācību kopā un var būt daudzas Epohas vienā apmācību procesā
Datu normalizācijas metode, kura noņem ekstrēmas vērtības
Tiek apskatīti visi paraugi apmācību kopā un var būt tikai viena Epoha apmācību procesā
Tiek apskatīti validācijas paraugi pēc apmācības
Kura komponente ir svarīgākā ChatGPT vaicājuma inženierijā, lai panāktu kvalitatīvu atbildi?
Vaicājuma formulēšana pēc iespejas īsākā un precīzākā formā
Vaicājuma formulēšana pēc iespējas garākā un plāšākā formā
Faktu iekopēšana prims vaicājuma
Kas notiks, ja turpināsiet uzdot vairākus vaicājumus par dažādām tēmām pēc kārtas vienā un tajā pašā ChatGPT sessijā (transformera tipa modelis)?
Valodas modelis sāks kopēt saturu no iepriekšējiem jautājumiem tālākajās atbildēs
Tas neietekmē valodas modeļa darbību
Valodas modelis apjuks un nezinās ko atbildēt
Kāda veida ievades dati tiek lietoti STT jeb ASR modeļos?
Audio signāli
Teksta dati
Attēlu dati
Video dati
Kādi ievades dati būtu jālieto TTS modelim un kādi sagaidāmie izvades dati?
Ievades dati: teksts; Izvades dati: audio signāli
Ievades dati: attēli; Izvades dati: teksts
Ievades dati: audio signāli; Izvades dati: teksts
Ievades dati: video; Izvades dati: audio signāli
Kādus uzdevumus audio apstrādē spēj veikt mākslīgais intelekts?
Balss un mūzikas stila pārvēršana (Voice and Music style conversion) - MI ļauj transformēt viena runātāja vai dziedātāja balss īpašības uz citu, saglabājot runas vai dziesmas saturu. Tāpat ir iespējams pārnest mūzikas stilu no viena žanra vai izpildītāja uz citu.
Mūzikas ģenerēšana (Music generation) - MI modeļi spēj radīt jaunu, oriģinālu mūziku, apgūstot mūzikas likumsakarības no liela apjoma mūzikas datiem.
Akcenta noņemšana (Accent removal) - Ar balss pārvēršanas metodēm ir iespējams samazināt vai noņemt runātāja akcentu, padarot runu vieglāk saprotamu.
Visus minētos
Kas ir spektogramma, vai MFCC audio signāla kontekstā?
Spektogramma ir vizuāls attēlojums, kas parāda audio signāla frekvenču sadalījumu laika gaitā. Tā attēlo skaņas intensitāti dažādās frekvencēs katrā laika momentā.
Spektogramma ir līkne, kas parāda audio signāla amplitūdu atkarībā no laika. Tā neatspoguļo frekvenču sadalījumu.
Spektogramma ir matematiska funkcija, ko izmanto audio signālu filtrēšanai un pārveidošanai. Tai nav grafiska attēlojuma.
Spektogramma ir ierīce, ko izmanto audio signālu ģenerēšanai un atskaņošanai, regulējot frekvenču joslas.
Cik liela aptuveni kļūda mūsdienās ir runas atpazīšanas modeļiem angļu valodā (Whisper V3)?
zem 10% vārdu kļūdas (WER)
zem 20% vārdu kļūdas (WER)
zem 30% vārdu kļūdas (WER)
Kur ir noderīga balss ieraksta uzlabošana (speech enhancement) ar mākslīgo intelektu?
Tiesu ekspertīzē un kriminālistikā
Runas atpazīšanā un transkribēšanā
Gadījumos, kad ir pieejams augstas kvalitātes runas ieraksts
Kādam nolūkam izmanto kļūdas funkciju apmācot mācot mākslīgo intelektu?
Kļūdas funkciju izmanto, lai novērtētu atšķirību starp mākslīgā intelekta prognozētajām un patiesajām vērtībām, ļaujot pielāgot modeli labākai precizitātei.
Kļūdas funkciju lieto, lai pārbaudītu mākslīgā intelekta aparatūras darbību un identificētu iespējamās kļūmes.
Kļūdas funkcija kalpo kā drošības mehānisms, lai nepieļautu mākslīgā intelekta pārāk lielu autonomiju un neatkarīgu darbību.
Kļūdas funkciju pielieto, lai mērītu mākslīgā intelekta darbības ātrumu un efektivitāti, nosakot tā veiktspēju.
Kādam nolūkam izmanto rādītāju kā F1 vai Precizitāti apmācot mākslīgā intelekta modeli?
F1 un Precizitāte tiek lietoti, lai pārbaudītu mākslīgā intelekta modeļa ātrumu un efektivitāti apmācības procesā. Jo ātrāk modelis apmācās, jo labāki ir šie rādītāji.
F1 un Precizitāte ir nepieciešami, lai pielāgotu mākslīgā intelekta modeļa hiperparametrus un uzlabotu tā arhitektūru. Pēc šiem rādītājiem var saprast, kā mainīt modeļa uzbūvi.
F1 un Precizitāte tiek izmantoti, lai novērtētu mākslīgā intelekta modeļa veiktspēju un kvalitāti apmācības un testēšanas laikā. Tie palīdz saprast, cik labi modelis spēj pareizi klasificēt vai prognozēt rezultātus.
F1 un Precizitāte kalpo kā galvenie kritēriji, lai salīdzinātu dažādus mākslīgā intelekta modeļus savā starpā un izvēlētos labāko modeli dotajam uzdevumam. Jo augstāki šie rādītāji, jo labāks ir modelis.
ConvNet jeb atteļu klasifikācijas modelis bez datu augmentācijas apmācības laikā ir spējīgs atpazīt:
Attēlā pārvietotus objektus
Attēlā pārvietotus un pagrieztus objektus
Attēlā pārvietotus, palielinātus un pagrieztus objektus
Transformer modelis, kurš ir ChatGPT pamatā balstās uz:
Tikai uz teksta datu bāzi
Uzmanības mehānismu, kas pievērš uzmanību ievadītajam tekstam
Validācijas datu kopas
Kas ir semantiskā segmentācija attēlos?
Semantiskā segmentācija ir metode, kā sadalīt attēlu kvadrātveida segmentos, neņemot vērā attēla saturu vai nozīmi.
Semantiskā segmentācija ir attēla apstrādes metode, kas ļauj noteikt attēla spilgtumu un kontrastu, bet nesniedz informāciju par attēla saturu.
Semantiskā segmentācija ir process, kurā katram attēla pikselim tiek piešķirta semantiska klase, piemēram, cilvēks, mašīna, ēka utt., tādējādi sadalot attēlu jēgpilnos segmentos.
Semantiskā segmentācija ir veids, kā pārvērst krāsainu attēlu melnbaltā attēlā, saglabājot tā semantisko nozīmi.
Kas ir instanču segementācija attēlos?
Instanču segmentācija ir attēlu apstrādes metode, kas ļauj sadalīt attēlu vairākos segmentos, balstoties uz pikseļu krāsu vērtībām. Šī metode tiek izmantota, lai vienkāršotu attēlu un samazinātu tā detalizācijas pakāpi.
Instanču segmentācija ir process, kurā no attēla tiek izgriezti atsevišķi objekti un saglabāti kā jauni attēli. Šī metode tiek izmantota, lai izveidotu jaunu attēlu kopu no viena lielāka attēla.
Instanču segmentācija ir process, kurā attēlā tiek identificēti un izdalīti atsevišķi objekti, piešķirot katram objektam unikālu marķējumu vai identifikatoru. Šī metode ļauj precīzi noteikt katra objekta atrašanās vietu un robežas attēlā.
Instanču segmentācija ir metode, kas ļauj noteikt attēla dziļumu, analizējot objektu izmēru un novietojumu attiecībā vienam pret otru. Šo informāciju var izmantot, lai izveidotu 3D modeli no 2D attēla.
Kā strādā Apple FaceID, kurš pieņemot izmanto sejas Re-identifikācijas modeli?
Modelis tiek apmācīts, izmantojot lietotāja sejas datus
Modelis jau ir apmācīts iepriekš un iegūst unikālu jēdzienvektoru (embedding)
Abi varianti
Kas ir OCR?
OCR ir saīsinājums no "Optimizēta Ciparu Rotācija", kas ir dziļās mācīšanās metode ciparu rotēšanai attēlos.
OCR ir optiskā rakstzīmju atpazīšana, kas ir dziļās mācīšanās pielietojums, laiatpazītu un digitalizētu drukātu vai rakstītu tekstu no attēliem vai skenētiem dokumentiem.
OCR ir dziļās mācīšanās algoritms, ko izmanto, lai prognozētu laika apstākļus, analizējot mākoņu attēlus no satelītiem.
Kādām daļām jābūt Midjourney attēla ģenerēšanas teksta vaicājumā daļā?
Konfigurācijas parametri
Type, Subject, Features, Style
Parauga fails
Kādas darbības var veikt ar mākslīgā intelekta attēlu apstrādes rīkiem?
Noņemt fotogrāfijas fonā nevēlamus priekšmetus
Nomainīt sejas izteiksmes un emocijas fotogrāfijā
Abas no augstāk minētām darbībām
Kādām daļām jābūt ChatGPT vaicājumā, lai iegūtu labāko rezultātu?
Precīzi definēts uzdevums, Konteksts/Persona, Formāts/Tonis
Neprecīzi definēts Uzdevums, Konteksts/Persona, Formāts/Tonis, Fakti/Dati
Nav svarīgi kā strukturēts vaicājums
Ar kādu vaicājumu panākt, ka tekstu neatpazīs plaģiātisma atpazīšanas sistēmas, bet saglabās to pašu domu, izmantojot ChatGPT?
Improve text below
Rephrase text below
Change text below
Kāpēc izmantot maksas ChatGPT versiju?
Maksas versija GPT4 dažādos uzdevumus sniedz 30-50% labākus rezultātus
Mākslīgais intelekts darbojas uz nVidia GPU, kurus ir dārgi uzturēt un bezmaksas versija nav ekonomiski izdevīga, līdz ar to produkta kvalitāte ir zemāka
Abi varianti
Kuri faktori veicināja mākslīgā intelekta attīstību pēdējos 10 gados?
Pielietojumi biznesā, datu pieejamība, skaitļošanas resursu jauda
Sabiedrības intrese, pielietojumi biznesā, skaitļošanas resursu jauda
Datu pieejamība, skaitļošanas resursu jauda, matemātikas teorija
Kurus darbus mākslīgais intelekts visticamāk automatizēs vispirms digitālajā vidē?
Monotonus, zemi atalgotus darbus
Radošus, augsti atalgotus darbus
Mākslīgais intelekts vēl ilgi nevarēs automatizēt intelektuālu darbu
Kam līdzinās vairāk Lielie Valodas Modeļi (LLM)?
Orāklam, kas spēj atbildēt uz visiem jautājumiem
Improvizācijas teātrim, kurš atbild, balstoties uz informāciju, kuru dod lietotājs
Interneta meklēšanas dzinējam
Kādos formātos var atbildēt GPT4?
Uzrakstīt programmatūras pirmkodu
Izveidot tabulas
Izveidot numurētus sarakstus
Visos minētajos formātos
Lai varētu izmantot Lielo Valodas modeli (LLM) vislētāk ar uzņēmuma datiem nepieciešams:
Apmācīt uz uzņēmuma datiem
Pieslēgt teksta semantiskās jēgas modeli un izveidot RAG (Retrieval Augmented Generation) sistēmu, kura izmanto iepriekš apmācītu modeli
Saprogrammēt, ka modelis pats meklē uzņēmuma datus datubāzē
Kur ir noderīgs PCA (Principal Component Analysis)?
PCA tiek izmantots, lai palielinātu ievades datu dimensionalitāti, lai varētu redzēt vizualizēt datus un redzēt to sakarības
PCA ir noderīgs, lai samazinātu ievades datu dimensionalitāti, lai varētu redzēt vizualizēt datus un redzēt to sakarības
Neviens no dotajiem variantiem
Kādā formātā iekodē kategoriskus datus mākslīgājā intelektā, lai apmācītu modeli, piemēram: bmw, audi, toyota?
Kā klašu indeksus: 0 = bmw, 1 = audi, 2 = toyota
One-hot-encoded: [1, 0, 0] = bmw, [0, 1, 0] = audi, [0, 0, 1] = toyota
Abos veidos
Kādā fromātā ievada datus, lai apmācītu mākslīgā intelekta modeli prognozēt dzīvokļa cenas no sludinājuma teksta?
Absolūtas vērtības: 0…500k EUR
Normalizētas cenas robežās: -1..1
Abos veidos
Kas var būt dziļās mašīnmācīšanās modeļa izvades dati?
Mašīnas cena
Mašīnas marka
Abi iepriekš minētie gan reizē un gan atsevišķi
Kas var būt dziļās mašīnmācīšanās modeļa ievades dati?
Mašīnas cena
Mašīnas marka
Abi iepriekš minētie gan reizē un gan atsevišķi
Salīdzinot 2 grupas ar aptauju dalībnieku atbildēm kā noteikt vai starp šim grupām ir statistiski nozīmīgas atšķirības atbildēs?
Jāveic t-test un vērtībai jābūt zem 0.05
Jāveic p-test un vērtībai jābūt zem 0.05
Vizuāli jāsalīdzina
Kas ir histogrammas?
Histogramma ir matemātiska formula, ko izmanto, lai aprēķinātu vidējo vērtību datu kopai, ņemot vērā datu izkliedi ap vidējo vērtību.
Histogramma ir datu vizualizācijas veids, kurā dati tiek attēloti kā līnijas grafiks, kur katrs datu punkts ir savienots ar taisnu līniju, lai parādītu izmaiņas laika gaitā.
Histogramma ir grafisks attēlojums, kas parāda datu sadalījumu, sadalot tos vairākos intervālos jeb groziņos un attēlojot katra intervāla biežumu kā joslas augstumu.
Histogramma ir statistikas metode, ko izmanto, lai pārbaudītu, vai divu datu kopu starpība ir statistiski nozīmīga, salīdzinot to vidējās vērtības un standartnovirzes.
Kas ir atpakaļizplatīšanās algoritms?
Atpakaļizplatīšanās algoritms ir datu vizualizācijas tehnika, kas ļauj attēlot datus trīsdimensiju telpā, lai labāk izprastu to struktūru un sakarības.
Atpakaļizplatīšanās algoritms ir mašīnmācīšanās metode, ko izmanto, lai apmācītu neironu tīklus, izplatot kļūdas atpakaļ pa tīklu un pielāgojot svarus, lai minimizētu kļūdu.
Atpakaļizplatīšanās algoritms ir datu kompresijas metode, kas ļauj samazināt datu apjomu, atmest nevajadzīgo informāciju un paātrināt datu apstrādi.
Atpakaļizplatīšanās algoritms ir kriptogrāfijas metode, ko izmanto, lai šifrētu un atšifrētu datus, padarot tos drošākus pret nesankcionētu piekļuvi.
Nulles-šaviena modeļus visefektīvāk ir izamantot:
Runas atpazīšanā latviešu valodā
Balss re-identifikācija banku sistēmās
Seju klasifikācijā emociju noteikšanai
Stimulētā mašīnmācīšanās, kuru izmanto robotikā un datorspēļu automatizācijā sastāv no:
Vides, Balvas funkcijas, Lēmumu koka
Vides, Balvas funkcijas, Novērojumiem, Darbības, Aģenta
Vides, Balvas funkcijas, Novērojumiem, Darbības, Klasifikācijas precizitātes Novērtējuma , Aģenta
Kāds ir galvenais mērķis dimensiju samazināšanas metodēm kā PCA, t-SNE vai UMAP, saskaņā ar avotiem?
Palielināt datu skaitu.
Vizualizēt datus zemākā dimensijā, piemēram, 2D.
Apmācīt lēmumu koku modeli.
Noteikt korelāciju starp kolonnām.
Kuru datu kopu avoti piemin kā tādu, uz kuras apmācīta lielākā daļa dziļās mašīnmācīšanās attēlu modeļu attēlu klasifikācijai?
MS COCO
MNIST
ImageNet
LAION5B
Kā avoti apraksta audio signāla frekvenci ("Frekvence f"), un kā tā ietekmē skaņas uztveri?
Tā ir skaņas skaļuma mērs; augstāka frekvence nozīmē skaļāku skaņu.
Tā ir svārstības sekundē; augstāka frekvence nozīmē spalgāku skaņu.
Tā ir signāla izšķirtspēja; augstāka frekvence nozīmē detalizētāku signālu.
Tā nosaka, cik daudz kanālu ir audio signālam.
Kāds ir galvenais balvas (reward) signāla uzdevums Stimulētā mašīnmācīšanā (Reinforcement Learning) ?
Nodrošināt modeli ar pareizajām atbildēm.
Palīdzēt modelim saprast datu struktūru.
Dot modelim atgriezenisko saiti par tā darbību kvalitāti.
Samazināt datu dimensiju skaitu.
Kāda mašīnmācīšanās pieeja ir primāri piemērota līdzīgu biznesa objektu grupēšanai, piemēram, klientu segmentēšanai, bez iepriekšējas informācijas par grupām?
Pārraudzītā māšīnmācīšanās (Supervised Learning)
Regresija (Regression)
Nepārraudzītā māšīnmācīšanās (Unsupervised Learning) jeb klasterizācija.
Stimulētā māšīnmācīšanās (Reinforcement Learning)
Kurš būtu raksturīgs lēmumu koku pielietojums biznesā?
Klientu aizplūšanas (Churn) prognozēšana.
Audio signālu apstrāde.
Attēlu ģenerēšana reklāmas materiāliem.
Frekvences analīze.
Kāda veida AI modeļi ir īpaši noderīgi zvanu centros?
Attēlu modeļi.
ConvNet
Regresijas modeļi.
STT, TTS
Kurš uzdevums lekcijā tika minēts kā tipisks pārraudzītās mašīnmācīšanās (supervised learning) piemērs biznesā?
Darbinieku atvaļinājumu plānošana
Kredītriska novērtējums
Neklasterētu datu grupēšana
Attēlu sintēze reklāmai
Kāds ir galvenais stimulētās mašīnmācīšanās (reinforcement learning) darbības princips?
Modeļa trenēšana uz marķētiem attēliem
Nejauša meklēšanas koka veidošana
Aģenta mācīšanās, saņemot balvas par vēlamām darbībām vidē
Datu automātiska grupēšana bez uzraudzības
Uzskaitiet un aprakstiet visus nepieciešamos soļus, ja jums būtu jāapmāca suņu un kaķu fotoattēlu klasifikators, izmantojot PyTorch. Jums ir doti 800 kaķu fotoattēlu un 200 suņu fotoattēlu. Jūs nevarat izmantot jau iepriekš apmācītu modeli. Jums ir jāizveido, jāapmāca un jāievieš modelis produkcijā, kur to izmantos, lai atšķirtu kaķu un suņu fotoattēlus. Ja minat atslēgvārdus kā “modelis”, “kļūdas funkcija” utt., jums jāizmanto precīzs nosaukums un apraksts katram “modelim”, “kļūdas funkcijai” utt., ko izmantosiet šim uzdevumam.
Definēt precīzas metodes (kopā jābūt vismaz 10):
Datu kopu pirmapstrāde pirms apmācības
Datu kopu pirmapstrāde apmācības laikā
Modeļa veiktspējas mērīšana
Modeļa arhitektūra un kāpēc?
Zaudējumu funkcija un kāpēc?
Optimizators un kāpēc?
Apmācības protokols, ko mērīt, kad apstāties
Kā izmantot modeli inferencei?
Apvilkt kļūdas un pierakstīt kā bija jābūt pareizi. Atrast 10 kļūdas
1751BATCH_SIZE = 128
2TRAIN_TEST_SPLIT = 0.8
3LEARNING_RATE = 200
4EPOCHS = 100
5
6class Dataset(torch.utils.data.Dataset):
7 def __init__(self):
8 super().__init__()
9 with open('some_image_dataset.pkl', 'rb') as fp:
10 X, Y_class_indexes, self.labels = pickle.load(fp)
11 self.Y_class_indexes = Y_class_indexes
12
13 X = torch.from_numpy(np.array(X).astype(np.float32))
14 self.X = X.permute(0, 3, 1, 2)
15 self.input_size = self.X.size(-1)
16
17 def __len__(self):
18 return len(self.X)
19
20 def __getitem__(self, idx):
21 x = self.X[idx]
22 y = self.Y_class_indexes[idx]
23
24 return x, y
25
26dataset_full = Dataset()
27train_test_split = int(len(dataset_full) * TRAIN_TEST_SPLIT)
28
29idxes_train, idxes_test = sklearn.model_selection.train_test_split(
30 np.arange(len(dataset_full)),
31 train_size=train_test_split,
32 test_size=len(dataset_full) - train_test_split,
33 stratify=dataset_full.Y_idx,
34 random_state=0
35)
36
37dataloader_train = torch.utils.data.DataLoader(
38 dataset=dataset_train,
39 batch_size=BATCH_SIZE,
40 shuffle=True,
41 drop_last=(len(dataset_train) % BATCH_SIZE == 1)
42)
43
44dataloader_test = torch.utils.data.DataLoader(
45 dataset=dataset_test,
46 batch_size=BATCH_SIZE,
47 shuffle=True
48)
49
50def get_out_size(in_size, padding, kernel_size, stride):
51 return int((in_size + 4 * padding - kernel_size) / stride) + 1
52
53class Conv2d(torch.nn.Module):
54 def __init__(self, in_channels, out_channels, kernel_size, stride, padding):
55 super().__init__()
56 self.in_channels = in_channels
57 self.out_channels = out_channels
58 self.kernel_size = kernel_size
59 self.stride = stride
60 self.padding = padding
61 self.K = torch.nn.Parameter(
62 torch.FloatTensor(kernel_size, kernel_size, in_channels, out_channels)
63 )
64
65 def forward(self, x):
66 batch_size = x.size(0)
67 in_size = x.size(-1)
68 out_size = get_out_size(in_size, self.padding, self.kernel_size, self.stride)
69
70 out = torch.zeros(batch_size, self.out_channels, out_size, out_size)
71
72 x_padded = torch.zeros(batch_size, self.in_channels, x_padded_size, x_padded_size)
73 x_padded_size = in_size + 2 * self.padding
74 x_padded[:, :, self.padding:-self.padding, self.padding:-self.padding] = x
75
76 K = self.K.reshape(-1, self.out_channels)
77
78 i_out = 0
79 for i in range(0, x_padded_size - self.kernel_size - 1, self.stride):
80 j_out = 0
81 for j in range(0, x_padded_size - self.kernel_size - 1, self.stride):
82 x_part = x_padded[:, :, i:i+self.kernel_size, j:j+self.kernel_size]
83 x_part = x_part.reshape(batch_size, K.size(0))
84 out_part = K.t() @ x_part
85 out[:, :, i_out, j_out] = out_part
86 j_out += 1
87 i_out += 1
88
89 return out
90
91class Model(torch.nn.Module):
92 def __init__(self):
93 super().__init__()
94
95 self.encoder = torch.nn.Sequential(
96 Conv2d(in_channels=3, out_channels=5, kernel_size=5, stride=1, padding=1),
97 torch.nn.BatchNorm2d(num_features=5),
98 Conv2d(in_channels=5, out_channels=10, kernel_size=5, stride=1, padding=1),
99 torch.nn.BatchNorm2d(num_features=10),
100 Conv2d(in_channels=15, out_channels=15, kernel_size=5, stride=1, padding=1),
101 )
102
103 out_1 = get_out_size(dataset_full.input_size, kernel_size=5, stride=1, padding=1)
104 out_2 = get_out_size(out_1, kernel_size=5, stride=1, padding=1)
105 out_3 = get_out_size(out_2, kernel_size=5, stride=1, padding=1)
106
107 self.fc = torch.nn.Linear(
108 in_features=15*out_3*out_3,
109 out_features=len(dataset_full.labels)
110 )
111
112 def forward(self, x):
113 out = self.encoder.forward(x)
114 out_flat = out.view(x.size(0), -1)
115 logits = self.fc.forward(out_flat)
116 y_prim = torch.softmax(logits, dim=1)
117 return y_prim
118
119
120model = Model()
121optimizer = torch.optim.Adam(model.parameters(), lr=LEARNING_RATE)
122
123metrics = {}
124for stage in ['train', 'test']:
125 for metric in [
126 'loss',
127 'acc'
128 ]:
129 metrics[f'{stage}_{metric}'] = []
130
131for epoch in range(1, EPOCHS):
132 for data_loader in [dataloader_train, dataloader_test]:
133 metrics_epoch = {key: [] for key in metrics.keys()}
134
135 if data_loader == dataloader_test:
136 stage = 'test'
137 model = model.eval()
138 torch.set_grad_enabled(False)
139 else:
140 stage = 'train'
141 model = model.train()
142 torch.set_grad_enabled(True)
143
144 for x, y in tqdm(data_loader):
145
146 y_prim = model.forward(x)
147
148 y_idx = y.cpu().data.numpy().argmax(axis=-1)
149 loss = torch.mean(y * torch.log(y_prim + 1e-8))
150
151 if data_loader == dataloader_train:
152 loss.backward()
153 optimizer.zero_grad()
154 optimizer.step()
155
156 np_y_prim = y_prim.cpu().data.numpy()
157 np_y = y.cpu().data.numpy()
158
159 idx_y = np.argmax(np_y, axis=1)
160 idx_y_prim = np.argmax(np_y_prim, axis=1)
161
162 acc = np.average((idx_y == idx_y_prim) * 1.0)
163
164 metrics_epoch[f'{stage}_acc'].append(acc)
165 metrics_epoch[f'{stage}_loss'].append(loss.cpu().item())
166
167 metrics_strs = []
168 for key in metrics_epoch.keys():
169 if stage in key:
170 value = np.mean(metrics_epoch[key])
171 metrics[key].append(value)
172 metrics_strs.append(f'{key}: {round(value, 2)}')
173
174
175