본문 바로가기

lossfunction

[Backpropagation] 메타코드 강의 후기_챕터2: Pytorch Fundamentals - Loss 최적화 - Gradient Descent 이번 시간에는 저번 시간에 이어 뉴럴 네트워크 학습에 대해 공부해봅시다. 저번시간에 Loss 의 정의와 Loss Function들을 배웠는데, 이번 시간에는 그 Loss를 어떻게 줄여나가야 하는지, 그 방식으로 Gradient Descent 와 Backpropagation에 대해 배워봅시다.   Loss를 줄이는 것이 목표라면... 어떻게 최적화해야할까요?  ex ) 산 정상에서 빨리 내려오려면 모든 곳에 발을 뻗어서 기울기가 가파른 방향으로 가야할 것이다. 이 행동을 매번 반복해서 더 이상 뻗을 곳이 없을 때가 minimum 에 도달해서 도착한 것이다.  - Gradient : 기울기 - Descent : 하강 - 주어진 Loss Function의 최소값을 찾아가는 알고리즘이다- 결국 weight ( .. 더보기
[Loss Function] 메타코드 강의 후기_챕터2: Pytorch Fundamentals - Loss Function 이번 시간에는 1. Loss Function : MSE, Cross Entropy 에 대해 배워본 후  다음 시간에는 2. Loss 최적화 : Gradient Descent, Backpropagation에 대해 배워보자.  1. Loss Function : MSE, Cross Entropy Loss 란....- == Error 라고도 불리며, 예측값과 실제값의 차이를 가리킨다. - 이 차이를 계산하는 함수를 loss function이라고 부른다.- 모델 학습의 목적은 궁극적으로 Loss function == Objective Funcion을 최소화하는 가중치 p 를 찾는 것이다. - MSE는 Regression output이 연속형일 때 쓰인다. - Cross Entropy는 Classification .. 더보기