ResNet

부스트캠프 AI Tech 2기/2기 CV U-Stage

CV의 DL 발전(2)

AlexNet과 VGG Net을 통해 더 깊은 네트워크가 더 좋은 성능을 보여준다는것을 확인했다. 하지만 더 깊이 쌓을수록 Gradient vanishing/exploding 현상이 발생한다. 과거에는 모델의 표현력이 과하게 좋아져서 Overfitting이 발생할 것이다 라고 예측했지만, Degradation problem이라는 걸로 확인됐다 1. Google Net 구글넷은 레이어를 깊게 쌓는게 아니라 같은 레벨에서 다양하게 쌓는 구조 1X1 Conv를 통해 데이터를 압축해서 계산해야하는 양을 줄였다. 1X1 Convolution 필터의 수만큼 출력채널이 생성된다 공간 크기는 변하지 않고 채널의 수만 변한다 구글넷은 depth가 깊어서 Gradient vanishing 현상이 발생하기 때문에 Outpu..

모플로
'ResNet' 태그의 글 목록