What's in a "Domain" Mathematically, joint distribution over inputs and outputs differs over domains 1 and 2 $P_{d1}(X,Y) \ne P_{d2}(X,Y)$ 예를 들어, Content, whit is being discussed Style, the way in which it is being discussed Labeling Standards, the way thtat the same data is labeled Types of Domian Shift Covariate Shift: The input changes but not the labeling $P_{d1}(X) \ne P_{d2}(X)$ $P_{d1}(Y|..
Zero-shot learning: 인스턴스별 레이블 없이 학습 Few-shot learning: 몇 가지 훈련 예제로 학습 Unsupervised learning: 레이블 없는 학습. 제로샷 학습과의 차이점 Auto-encoders, contrastive learning Generative models: GANs, VAEs Semi-supervised laerning 라벨 정보가 없는 이미지의 큰 데이터셋이 존재한다면, 이것을 어떻게 다룰 것이닞? Pseudo-labeling 방법이 있다. Pseudo-labels Iterative algorithm: Train a classifier $f$ on $D_1$ Pseudo-labelling: build dataset $D_2$ where we used ..
제1고지 - 다차원 배열을 tensor라고 하며, 방향을 차원(dimension) 혹은 축(axis)라고 합니다. - 컴퓨터 과학에서 그래프는 노드(node)와 에지(edge)로 구성된 데이터 구조를 말함 - __call__ 메서드는 파이썬의 특수 메서드. 이 메메서드를 정의하면 f = Function() 형태로 함수의 인스턴스 변수를 변수 f에 대입해두고, 나중에 f(...) 형태로 __call__ 메서드를 호출 - 'NotImplementedError'는 ㅇ이 메서드는 상속하여 구현해야 한다는 의미 - assert 문은 결과가 True가 아니면 예외가 발생함 class Variable: def __init__(self, data): self.data = data self.grad = None self..
이번 포스팅은 cs231n 강의의 Lecture 12 Video Understanding, EECS Lecture 24 Videos 자료를 참고하였습니다. 또한, Videos 관련 강의로는 해당 영상을 참고하였습니다. (Lecture 18: Videos (UMich EECS 498-007) Video = 2D + Tensor 비디오는 이미지 4D 텐서의 시퀀스입니다. (T x 3 x H x W) T: the time or temporal dimension 3: the channel dimension which is three colors RGB channels for the raw input video H and W: two spatial dimensions 비디오에는 motivating task가 있습..
이번 포스팅은 cs231n 강의의 Lecture 11 Attention and Transformers, EECS Lecture 17 Attention 자료를 참고하였습니다. 또한, Transformer 관련 내용으론 해당 블로그의 번역 글을 참고하였습니다. (The Illustrated Transformer) Sequence to Sequence with RNNs Problem: Input sequence bottlenecked through fixedsized vector. What if T=1000? Idea: use new context vector at each step of decoder! Sequence to Sequnece의 아이디어로는 컨텍스트 벡터를 인코더와 디코더 사이에 연결하는 것입니..
이번 포스팅은 cs231n 강의의 Lecture 10 Recurrent Neural Networks, EECS 498.008 / 598.008 강의의 Lecture 16 Recurrent Neural Network을 참고하여 정리하였습니다. 이번 강의는 cs231n의 자료가 더 좋습니다. 이번 강의에서 다루는 내용은 RNN, LSTM, GRU Language modeling Sequence-to-sequence Image captioning 입니다. RNN의 Process Sequence를 보면 이렇습니다. 1) One to one Image classification: Image → Label 2)One to many Image Captioning: Image → Sequence of words 3) ..
- Total
- Today
- Yesterday
- 도커
- 퓨샷러닝
- python
- 파이썬 딕셔너리
- 구글드라이브다운
- docker
- 구글드라이브연동
- style transfer
- 파이썬 클래스 다형성
- prompt learning
- CNN
- 서버에다운
- support set
- vscode 자동 저장
- 딥러닝
- few-shot learning
- NLP
- 도커 컨테이너
- 파이썬 클래스 계층 구조
- stylegan
- 파이썬
- 구글드라이브서버다운
- cs231n
- Unsupervised learning
- 프롬프트
- Prompt
- clip
- 구글드라이브서버연동
- 서버구글드라이브연동
- 데이터셋다운로드
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |