
Paper link: arxiv.org/abs/2307.11978 Code link: github.com/CEWu/PTNL 이 논문은 실험으로 결과를 입증하고 설득하는 형식이라서 table을 통해 설명을 이어갈 것 같습니다. 이걸 일주일 동안 붙잡으며 읽은 결과, 복잡한 architecture 그림과 복잡한 수식의 method가 없어서 겉으로 보기엔 쉬워 보이나 의외로 쉬운 논문은 아니고 vision-language 쪽을 한 번 싹 정리하며 unsupervised 까지 맛보고 싶다면 좋은 논문인 것 같아 필요하다고 판단된다면 추천 드리는 논문입니다. Why Is Prompt Tuning for Vision-Language Models Robust to Noisy Labels? CLIP과 같은 vision..
Review/Paper
2023. 12. 20. 21:46
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- hugging face trending paper
- 리눅스 나노 사용
- 페이퍼윗코드
- 파이썬 딕셔너리
- 파이썬
- 페위코
- 허깅페이스 트렌딩 페이퍼
- 허깅페이스
- 도커
- 도커 컨테이너
- style transfer
- prompt learning
- clip
- python
- 딥러닝
- few-shot learning
- cs231n
- 프롬프트
- stylegan
- support set
- docker
- 퓨샷러닝
- Hugging Face
- NLP
- 리눅스
- Paperwithcode
- 도커 작업
- Prompt
- Unsupervised learning
- CNN
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
글 보관함
250x250