본문 바로가기

전체 글

(77)
20-03-? cs231n 7강 영어
20-03-? cs231n 6강 영어
20-03-? cs231n 5강 영어 indention : 들여쓰기
python 문법 Numpy hstack : 쌓기 concatenate array_split 대표예시 : [3, 7, 5, 1] import time tic = time.time() f(~~) toc = time.time() toc - tic # 걸린시간 시간 제는법 - time np.array_split([1,2,3,4,5,6,7,8,9],3) np.linalg.norm([5,5,5,5]) #1/n 안해서 list가 길수록 큼. #output: 10.0 - linear algebra + norm(평균) : Frobenius norm (제곱 + 루트) np.argsort([3,7,5,1]) # output : [3,0,2,1] a = np.array([3,7,5,1]) a[[3,0,2,1]] # -> [1 3 5 7] n..
20-03-? cs231n 4강 영어 indice : index의 복수형 Broadcasting : 광범위하게 적용 be deprecated : (중요성이 떨어져) 사라지다 plot : 점을 연결하는 것 (꺽은선 그래프) trajectory 사선 gradient descent can basically take this trajectory numerically 수치적으로 we can compute this numerically numerical 값 here in this case, we have this numerical, right? unroll 풀다 over time 오랜시간에 걸쳐서 we end up unrolling this over time. impractical 안 실용적 it's basically completely imprati..
20-03-05 cs231n 3강 영어 unravel 풀다 templete 틀(거푸집) we if we take that row and unravel it back into an image, then we can visualize the learned template for each of the classes had 알고있다, 배우다 we also had this interpretation of linear classification as learning decision boundaries between pixels in some high demensional space where the demention of space corresopnd to intensity values of the image. left off 멈추다 this is ki..
20-03-08 cs231n 4강
20-03-05 cs231n 3강 영어 Loss function -2종류 1. SVM-hinge loss * regularization regul도 여러 종류 있음 1. L2 regul - euclidian norm (+) --entry를 평등하게 : w의 entry값을 거의 비슷하게 함 -> x의 entry의 영향력 또한 비슷해짐 2. L1 regul - absolute value (+) --w를 sparse하게 : 0이 많아지게 함. 3. batch nomalization : deep learning에 특화 됨 (아직 안배움) 2. softmax --softmax (multinomial logistic regression