[Paper] Why Is Prompt Tuning for Vision-Language Models Robust to Noisy Labels?
Paper link: arxiv.org/abs/2307.11978 Code link: github.com/CEWu/PTNL 이 논문은 실험으로 결과를 입증하고 설득하는 형식이라서 table을 통해 설명을 이어갈 것 같습니다. 이걸 일주일 동안 붙잡으며 읽은 결과, 복잡한 architecture 그림과 복잡한 수식의 method가 없어서 겉으로 보기엔 쉬워 보이나 의외로 쉬운 논문은 아니고 vision-language 쪽을 한 번 싹 정리하며 unsupervised 까지 맛보고 싶다면 좋은 논문인 것 같아 필요하다고 판단된다면 추천 드리는 논문입니다. Why Is Prompt Tuning for Vision-Language Models Robust to Noisy Labels? CLIP과 같은 vision..
Review/Paper
2023. 12. 20. 21:46
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- Prompt
- Unsupervised learning
- python
- 퓨샷러닝
- 파이썬 클래스 계층 구조
- 도커 컨테이너
- 데이터셋다운로드
- prompt learning
- 구글드라이브서버연동
- CNN
- 파이썬
- cs231n
- 파이썬 클래스 다형성
- 딥러닝
- docker
- NLP
- clip
- 서버구글드라이브연동
- stylegan
- style transfer
- 구글드라이브서버다운
- support set
- vscode 자동 저장
- 파이썬 딕셔너리
- 서버에다운
- 도커
- 프롬프트
- 구글드라이브연동
- 구글드라이브다운
- few-shot learning
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함
250x250