Skip to content
Snippets Groups Projects
Commit 828dcba6 authored by Felix Ramnelöv's avatar Felix Ramnelöv
Browse files

Lab 1: Renamed lab notes file

parent 35ce1f1c
No related branches found
No related tags found
No related merge requests found
Part 1
Confusion matrix o missclassification error e framtana.
2. Confusion matrisen ser i överlag bra ut. hade svårast för 7,8,9,1. Framförallt 9.
3. De lättaste fallen för 8 är enkla att tyda men de svåraste kan man förstå att det är svårt genom heatmap. Missclassification för training är 0,045 oc tes 0,053.
4. Komplexiteten r som öst då k r lägst. Dvs komplexiteten minskar när k ökar. Optimalt k är när validation error (0,0215) är lägst, vilket är då k = 3. test error = 0,024. Vilket är högre än träningsdatan men lite lägre än valideringsdatan. Enligt oss är det en bra model då den misslyckas på typ var 40-50e tal. Det beror ju såklart på vad modellen ska appliceras på också.
5. Optimal k = 6. Då entropin r som lägst då. cross entropy tar hänsyn till confidence till en prediction. dvs storleken på felet tar den hänsyn till. Vilket är en bättre representation av hur bra modellen är om det är multionmial distribution.
Part 2
2. DFA är viktigast men även PPE och HNR i minskande ordning. Framförallt DFA
3.
4. lambda = 1 gives error in theta parameters, mse = 0,87868, df = 13,86. lambda = 100 => mse = 0,8897, df = 9,92. lambda = 1000 => mse = 0,9399 , df = 5,64.
test: lambda = 1 : mse = 0,9347, lambda = 100: 0,9341, lambda = 1000: mse = 0,9678. 100 verkar va bästa penaltyn då det minska inte testfelet med lägre degrees of freedom, enlgit tetningsdatan.
\ No newline at end of file
0% Loading or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment