Learning Rate Decay
Learning Rate
Learning rate는 gradient의 update step을 결정한다.
학습 정도에 따라서 learning rate를 변화시키는 것이 좋다.
- 학습 초기에는 큰 값을 가짐으로써 여기저기 돌아다니게 하고
- 학습을 어느정도 한 후에는 작은 값을 사용해서 정밀하게 보도록 한다.
Learning Rate Decay
Learning rate decay는 학습 정도에 따라 learning rate를 감소시킨다.
여러가지 방법이 존재한다.
'Computer Science > AL, ML' 카테고리의 다른 글
Image Filtering (0) | 2022.04.21 |
---|---|
[Optimization] Local Optima in Neural Network (0) | 2022.04.21 |
[Optimization] Adam (0) | 2022.04.21 |
[Optimization] RMSProp (0) | 2022.04.21 |
[Optimization] Gradient Descent with Momentum (0) | 2022.04.21 |
댓글