The Beautiful Future
Residual Net 본문
4.Experiment
4.1 ImageNet Classification
1000클래스를 포함하고 있는 ImageNet 2012 데이터셋에 실험하였다.
128만장을 학습에 하용하였고 5만장을 validation으로 사용했다. 그리고 test로 10만장을 사용했다.
top-1 과 top-5 에러을 측정했다.
- Plain Networks
18layer에서 34layer로 깊게했을때 에러가 늘얼났다. 반면 ResNet은 에러가 줄어들었다.
Plain Networks 34layer의 train error가 모든 학습기간동안 18layer보다 높았다.
이 문제가 vanishing gradients의 문제는 아닌것 같다.
BatchNoralization은 분산이 0이 안되게하면서 forward propagete하기 때문이다.
backward propageted gradients 또한 건강한 크기를 가지게 되는 것을 검증하였다.
Plain Networks 34layer을 더 연장하여 학습하면 성능이 더 올라 갈 수도 있을 것이다.
우리는 추측한다. 네트웍이 깊어질 수 록 exponentially low convergence rates을 가진다.
실제로 좀 더 돌려 본 결과 해결되지 않았다. 이 문제는 미래에 연구 될 것이다.
- ResNet
모든 short cut에 Identity mapping을 초기값으로 줬고 zero-padding을 이용해 dimension을 유지했다.
'논문' 카테고리의 다른 글
OpenPose: Real-time Multi-Person 2D Pose Estimation using Part Affinity Fields (0) | 2020.06.07 |
---|---|
ICCV 2019 (0) | 2019.11.14 |
SSD (0) | 2017.12.14 |
PRUNING FILTERS FOR EFFICIENT CONVNETS, ICLR2017 (0) | 2017.06.09 |
MDM (0) | 2017.03.16 |
Comments