
Paper link: arxiv.org/abs/2307.11978 Code link: github.com/CEWu/PTNL 이 논문은 실험으로 결과를 입증하고 설득하는 형식이라서 table을 통해 설명을 이어갈 것 같습니다. 이걸 일주일 동안 붙잡으며 읽은 결과, 복잡한 architecture 그림과 복잡한 수식의 method가 없어서 겉으로 보기엔 쉬워 보이나 의외로 쉬운 논문은 아니고 vision-language 쪽을 한 번 싹 정리하며 unsupervised 까지 맛보고 싶다면 좋은 논문인 것 같아 필요하다고 판단된다면 추천 드리는 논문입니다. Why Is Prompt Tuning for Vision-Language Models Robust to Noisy Labels? CLIP과 같은 vision..
Review/Paper
2023. 12. 20. 21:46
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 리눅스
- 서버구글드라이브연동
- few-shot learning
- python
- CNN
- 리눅스 나노 사용
- 파이썬 딕셔너리
- 리눅스 nano
- support set
- 딥러닝
- style transfer
- 파이썬 클래스 계층 구조
- 퓨샷러닝
- 프롬프트
- 파이썬
- linux nano
- 도커
- docker
- stylegan
- 파이썬 클래스 다형성
- 리눅스 나노
- NLP
- 구글드라이브연동
- prompt learning
- Unsupervised learning
- cs231n
- Prompt
- 도커 컨테이너
- 도커 작업
- clip
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
글 보관함
250x250