본문 바로가기
Computer Science/AL, ML

[Optimization] Learning Rate Decay

by Gofo 2022. 4. 21.

Learning Rate Decay

Learning Rate

Learning rate는 gradient의 update step을 결정한다.

 

학습 정도에 따라서 learning rate를 변화시키는 것이 좋다.

  • 학습 초기에는 큰 값을 가짐으로써 여기저기 돌아다니게 하고
  • 학습을 어느정도 한 후에는 작은 값을 사용해서 정밀하게 보도록 한다.

 

Learning Rate Decay

Learning rate decay는 학습 정도에 따라 learning rate를 감소시킨다.

 

여러가지 방법이 존재한다.

'Computer Science > AL, ML' 카테고리의 다른 글

Image Filtering  (0) 2022.04.21
[Optimization] Local Optima in Neural Network  (0) 2022.04.21
[Optimization] Adam  (0) 2022.04.21
[Optimization] RMSProp  (0) 2022.04.21
[Optimization] Gradient Descent with Momentum  (0) 2022.04.21

댓글