no image
Nerual Networks and Backpropagation
1. Issues with Linear Classifiers 2. Features 3. Image Features domain knowledge를 이용해서 feature를 뽑아내고 ML Training을 할 수 있다면 그게 best 무조건 딥러닝 적용한다고 다 좋은게 아님 그래서 우리는 어떻게 저 이미지 원본 (original input X)로부터 label y (output)까지 한 번에 연결할 수 있을까? 그리고 학습을 바탕으로 파라미터를 업데이트해서 더 이미지를 잘 분류할 수 있는 classifier를 만들 수 있을까? ==> Neural Network의 도입 4. Neural Network 신경망의 가장 간단한 구조인 퍼셉트론에서 시작해서 XOR문제를 해결하기 위해 여러 개의 층을 연결함 MLP로..
2023.10.13
no image
Loss function & Optimization
Q . How to set the values in W parameters? Machine Learning : data-driven approach we(human) just design the form of our model (eg. f(W,x) = Wx ), and initialize the parameter value (W) randomly (초기화만 우리가, 정해주는건 machine이) then, find a training data X to estimate the label (y hat) compare our estimation (y hat) to ground truth label (y), estimating how good/bad we are currently (=Loss Function) u..
2023.10.11
no image
Linear & Softmax Classifiers
Linear Classifier 32*32 픽셀의 이미지에 대해서 R/G/B 별로 색이 지정된다고 생각하고 Input 이미지에 대해서 라벨링을 하는 과정 (label y : Output) x (input) 을 linear 함수 f 에 넣어서 각 레벨별로 점수를 산출한다. x 와 가중치 W를 내적곱 하면 아래 그림과 같이 곱해질 것이다. 지금부터는 아래 도식과 같이 bias 'b'를 따로 빼지 않고 가중치 'W'안에 열로 넣어줘서 한번에 볼 것이다. (학습 데이터 x에는 1값의 행을 한 줄 추가해줘서 가중치에 추가된 열과 곱해지게 만든다) 다시 이미지가 있다고 생각하고 예시를 들어보면 아래와 같음. 최종 linear classifier model : f (x,W) = Wx Advantages of para..
2023.10.09