GRU (Gated Recurrent Unit)
RNN의 한 종류이다.
별도의 memory cell을 두지 않고 구현하여 LSTM보다 cost가 절반 정도로 준다.
특징
- 2개의 gate가 존재한다.
- Forget gate와 input gate가 하나의 update gate로 대체된다.
- h를 c처럼 사용한다.
- Memory cell C가 따로 존재하지 않는다.
'Computer Science > AL, ML' 카테고리의 다른 글
[CNN] Model Understand (0) | 2022.06.16 |
---|---|
[CNN] Image Captioning & Attention (0) | 2022.06.16 |
[RNN] LSTM (Long Short-Term Memory Network) (0) | 2022.06.16 |
[RNN] Vanilla RNN (0) | 2022.06.15 |
RNN : Recurrent Neural Network (0) | 2022.06.15 |
댓글