Cute Bunny 3 'batch norm' 태그의 글 목록
본문 바로가기 메뉴 바로가기

이빨 빠진 미남이

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

이빨 빠진 미남이

검색하기 폼
  • 분류 전체보기 (212)
    • AI (76)
      • Machine Learning (5)
      • Deep Learning (26)
      • Reinforcement Learing (2)
      • CS231n (11)
      • Computer Vision (19)
      • Linear Algebra (1)
      • NLP (9)
    • Review (19)
      • Paper (19)
    • Skills (116)
      • PyTorch (7)
      • Docker (14)
      • Pythons (20)
      • Git & Github (3)
      • DS & Algorithms (4)
      • Error (48)
      • etc (20)
    • Mine (1)
  • 방명록

batch norm (1)
CSW3L06 Why Does Batch Norm Work?

배치 정규화는 왜 효과가 있는 것일까? 입력값 $x_1, x_2, x_3$을 받아 레이어를 통과 시켜 추정치 $\hat y$을 얻습니다. 여기서 큰 데이터일 경우, 배치 사이즈를 정해 mini-batch만큼 학습을 시키게 되는데, 이렇게 들어오는 입력값에 따라 데이터의 분포가 바뀔 가능성이 있습니다. 이를 covariate shift라 합니다. 따라서 미니 배치 사이즈 단위로 정규화를 해주면, 입력값이 바뀌어서 발생하는 문제를 안정화 시키고, 분포가 바뀌더라도 평균과 분산이 0과 1로 맞춰지니 조금씩 바뀌게 됩니다. 즉, 앞쪽 레이어에서 계속 학습하며 값이 바뀌더라도 뒤쪽 레이어에서 겪는 부담이 줄어듭니다. 중요한 것은 결국 좋은 추정치를 얻기 위한 매개변수를 학습하여 얻는 것인데, 앞과 뒤에서 발생하는..

AI/Deep Learning 2022. 11. 6. 20:38
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • few-shot learning
  • 리눅스 나노
  • 리눅스 나노 사용
  • CNN
  • 딥러닝
  • 파이썬 클래스 다형성
  • 서버구글드라이브연동
  • linux nano
  • 파이썬
  • 파이썬 클래스 계층 구조
  • 도커
  • 퓨샷러닝
  • cs231n
  • Prompt
  • support set
  • 리눅스 nano
  • python
  • docker
  • 리눅스
  • 구글드라이브연동
  • 도커 작업
  • style transfer
  • clip
  • stylegan
  • 프롬프트
  • 파이썬 딕셔너리
  • 도커 컨테이너
  • NLP
  • prompt learning
  • Unsupervised learning
more
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함
250x250

Blog is powered by Tistory / Designed by Tistory

티스토리툴바