합성곱 신경망의 구조
합성곱층 → ReLU → 배치정규화/드롭아웃 → 합성곱층 → ReLU→ maxpool
위 구조를 하나의 cnn블록이라고 부르기도 함
cnn블록을 지날 때마다 채널 개수는 증가
그러나 H나 W는 반으로 줄어듦
마지막에 H, W가 1일 때 블록 활용이 종료되고 선형계층이 적용됨