Back Propagation이란
'Back Propagation' 는 Output Layer 직전의 Layer부터 최적화합니다.
미리 말하고 싶은 것은 'Back Propagation'도 Gradient Descent를 이용합니다. 즉 앞서 배웠던 Forward Propagation처럼 Cost를 구하여 W를 여러번 갱신하여 최적화합니다.
다만 그 차이는 'Forward Propagation'은 한번의 갱신을 위한 Cost를 구하는데 비효율적으로 많은 연산을 필요로 합니다.
그러나 'Back Propagation'에서는 최적화의 순서를 달리하여 몇번의 연산만으로 Cost를 구할 수 있습니다.
수식↓
'AI > 이론' 카테고리의 다른 글
[ML] 분류 성능 평가 지표 (0) | 2022.01.02 |
---|---|
[ML] CNN의 역전파(backpropagation) (0) | 2021.12.30 |
[ML] Transfer learning 2 (0) | 2021.12.30 |
[ML] Fully Convolutional Layer, Fully Connected Layer, AutoEncoder (0) | 2021.12.28 |
[ML] K-Fold Cross Validation(교차검증) (0) | 2021.11.09 |