[Classification] ResNet
·
DeepLearning/Classification
ResNet 2015년 ILSVRC에서 우승, MS 개발. 2014년 GooLeNet이 22개 층인데 반면 ResNet은 152개 층. (층수가 깊어졌다) 깊게 하면 무조건 성능이 좋은가? -> 아니다! Gradient Vanishing/Exploding 파라미터 개수가 너무 많아지는 문제 발생 Residual Block 기존 일반적인 CNN은 입력 데이터(x)를 타겟값(y)으로 mapping 하는 함수 H(x)를 찾는 것이 목표이다. H(x) = ReLU ( w2 * ( ReLU ( w1 * x ) ) ) (w는 가중치) 이때, H(x)와 y의 차이를 최소화하는 방향으로 학습하게 된다. ResNet은 기존 CNN과 달리 입력값을 출력 값에 더하는 지름길(shortcut or skip-connection..
woongs_93
'ResNet' 태그의 글 목록