티스토리 뷰

AI/Deep Learning

C4W2L07 Inception Network

미남잉 2022. 11. 6. 21:18
728x90

previous layer에서 받아 온 activation map은 28x28x192입니다.

 

왼쪽에서부터 순서대로 살펴보겠습니다.

→ 1x1 conv 64 → 28x28x64

→ 1x1 conv 96 → 3x3 conv 128 → 28x28x128

→ 1x1 conv 16 → 5x5 conv 32 → 28x28x32

→ 3x3 max pooling, s=1, same 높이와 너비가 28x28로 유지해서 다른 결과와 엮을 수 있음 → 28x28x192 (input과 같음, 채널이 너무 많아 보임. 추가) → 1x1 conv,32 → 28x28x32

 

참고로 1x1 conv이 마지막에 오면 또 다른 1x1 conv가 필요하지는 않습니다. 마지막으로 사이즈가 동일한 이 블록들을 모아서 연결해줍니다. 이를 channel concatenation이라 합니다.

 

64+128+32+32을 통해 256 depth를 갖게 되고 최종적으로 28x28x256를 갖게 됩니다.

 

채널 연결은 길이만 다른 블록들을 쌓아 연결해주는 것처럼 생각하면 됩니다. 이것이 하나의 인셉션 모듈이라 볼 수 있고, 이런 모듈들을 하나로 모아놓은 것이 GoogLeNet입니다.

 

728x90

'AI > Deep Learning' 카테고리의 다른 글

Autoencoder란? - PyTorch로 구현하기  (0) 2022.11.08
C4W2L03-04 Resnets & Why ResNets Work  (0) 2022.11.06
C4W2L06 Inception Network Motivation  (0) 2022.11.06
C4W2L05 Network in Network  (0) 2022.11.06
CSW3L06 Why Does Batch Norm Work?  (0) 2022.11.06
댓글