
Abstract Keyword: only single text condition, patch-wise text-image matching loss, CLIP(pre-trained text-image embedding model) 원래 존재하는 스타일 트랜스퍼 방법은 스타일 이미지의 정보를 콘텐츠 이미지로 바꾸기 위한 참고 스타일 이미지가 필요하다. 우리의 프레임워크는 이 스타일 이미지 없이 스타일을 원하는 스타일의 텍스트 설명만으로 가능하다. CLIP의 사전 훈련된 text-image 임베딩 모델을 사용해서 오로지 single text condition만으로 콘텐츠 이미지의 스타일을 조정하는 것을 증명한다. 특별히 우리는 사실적인 텍스쳐 전송을 위한 다양한 관점의 증강을 하는 patch-wise text..
Review/Paper
2023. 6. 6. 23:18
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- support set
- clip
- prompt learning
- docker
- 퓨샷러닝
- 파이썬
- Hugging Face
- 페이퍼윗코드
- 리눅스
- 리눅스 나노 사용
- 파이썬 딕셔너리
- 도커 작업
- 도커
- Prompt
- stylegan
- style transfer
- python
- Unsupervised learning
- few-shot learning
- 허깅페이스
- 페위코
- hugging face trending paper
- 허깅페이스 트렌딩 페이퍼
- Paperwithcode
- CNN
- cs231n
- NLP
- 딥러닝
- 도커 컨테이너
- 프롬프트
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
글 보관함
250x250