반응형
1x1 conv layer의 장점
- Channel(Filter) 수 조절
- 연산량 감소
- 비선형성
Channel 수 조절, 연산량 감소
- 1x1 conv layer를 사용하면 output size는 변함이 없지만 channel(filter)의 수를 조절할 수 있다.
- 이 channel 수를 적절히 조절하면 파라미터를 효과적으로 줄일 수 있다.
- 파라미터 수 = kernel size * kernel size * input channel * output channel
- 파라미터가 감소됨에 따라 같은 결과라도 1x1 conv layer를 사용하는 편이 연산량 감소에도 득이 됨을 알 수 있다.
비선형성
- 1x1 conv layer를 사용함에 따라 그만큼 ReLU Activation을 더 사용할 수 있게되는데, 이 때문에 모델의 비선형성이 좋아질 수 있게된다.
반응형
'DeepLearning > Concept' 카테고리의 다른 글
손실 함수 (Loss Function) (0) | 2024.07.10 |
---|---|
Supervised, Unsupervised Learning (0) | 2023.11.07 |
Dropout (0) | 2021.07.16 |
Dilated Convolution(Atrous convolution) (0) | 2021.01.20 |
mAP(mean Average Precision) (0) | 2021.01.06 |