CSW3L06 Why Does Batch Norm Work?
배치 정규화는 왜 효과가 있는 것일까? 입력값 $x_1, x_2, x_3$을 받아 레이어를 통과 시켜 추정치 $\hat y$을 얻습니다. 여기서 큰 데이터일 경우, 배치 사이즈를 정해 mini-batch만큼 학습을 시키게 되는데, 이렇게 들어오는 입력값에 따라 데이터의 분포가 바뀔 가능성이 있습니다. 이를 covariate shift라 합니다. 따라서 미니 배치 사이즈 단위로 정규화를 해주면, 입력값이 바뀌어서 발생하는 문제를 안정화 시키고, 분포가 바뀌더라도 평균과 분산이 0과 1로 맞춰지니 조금씩 바뀌게 됩니다. 즉, 앞쪽 레이어에서 계속 학습하며 값이 바뀌더라도 뒤쪽 레이어에서 겪는 부담이 줄어듭니다. 중요한 것은 결국 좋은 추정치를 얻기 위한 매개변수를 학습하여 얻는 것인데, 앞과 뒤에서 발생하는..
AI/Deep Learning
2022. 11. 6. 20:38
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- CNN
- python
- 파이썬 클래스 다형성
- 구글드라이브서버다운
- 구글드라이브서버연동
- 파이썬 클래스 계층 구조
- 파이썬 딕셔너리
- 서버에다운
- 파이썬
- 도커
- 서버구글드라이브연동
- stylegan
- NLP
- docker
- 구글드라이브연동
- prompt learning
- 프롬프트
- cs231n
- 퓨샷러닝
- 구글드라이브다운
- clip
- vscode 자동 저장
- Unsupervised learning
- style transfer
- few-shot learning
- 딥러닝
- 도커 컨테이너
- Prompt
- 데이터셋다운로드
- support set
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함
250x250