Loss function -2종류
1. SVM-hinge loss
* regularization
regul도 여러 종류 있음
1. L2 regul - euclidian norm (+)
--entry를 평등하게 : w의 entry값을 거의 비슷하게 함 -> x의 entry의 영향력 또한 비슷해짐
2. L1 regul - absolute value (+)
--w를 sparse하게 : 0이 많아지게 함.
3. batch nomalization : deep learning에 특화 됨 (아직 안배움)
2. softmax
--softmax (multinomial logistic regression