1x1 Convolution Layer
·
DeepLearning/Concept
1x1 conv layer의 장점 Channel(Filter) 수 조절 연산량 감소 비선형성 Channel 수 조절, 연산량 감소 1x1 conv layer를 사용하면 output size는 변함이 없지만 channel(filter)의 수를 조절할 수 있다. 이 channel 수를 적절히 조절하면 파라미터를 효과적으로 줄일 수 있다. 파라미터 수 = kernel size * kernel size * input channel * output channel 파라미터가 감소됨에 따라 같은 결과라도 1x1 conv layer를 사용하는 편이 연산량 감소에도 득이 됨을 알 수 있다. 비선형성 1x1 conv layer를 사용함에 따라 그만큼 ReLU Activation을 더 사용할 수 있게되는데, 이 때문에 모델..
woongs_93
'Convolution Layer' 태그의 글 목록