InstructEval: Towards Holistic Evaluation of Instruction-Tuned Large Language Models 링크: https://arxiv.org/abs/2306.04757 11-12p A.3.1 Writing Evaluation Rubrics To evaluate the model outputs automatically, we use ChatGPT as an evaluator model. Specifically, we provide the generated output of a model and prompt the evaluator model to grade the generated text on a scale of 1 to 5 based on suitabl..
Title: JudgeLM: Fine-tuned Large Language Models are Scalable Judges 링크: https://arxiv.org/abs/2310.17631 여기서 만든 데이터셋 format으로 만들고, judgeLM으로 평가 내리는 것을 생각하기 (Github) Summary A novel approach to evaluating large language models, which are advanced AI models capable of generating human-like text. The main chanllenge in assessing LLMs is that existing benchmarks and metrics don't comprehensively me..
Title: Re3: Generating Longer Stories With Recursive Reprompting and Revision 링크: https://arxiv.org/abs/2210.06774 0 Abstract 2,000 단어가 넘는 긴 이야기를 자동으로 생성하는 문제를 고려한다. 짧은 이야기에 비해 긴 길이의 줄거리의 일관성과 관련성은 도전과제다. 이를 해결하기 위해 Recursive Reprompting and Revision (Re3) 프레임워크를 제안한다. 일반 목적의 언어 모델에게 구조적인 전반적 계획을 구성하도록 요청 계획과 현재 스토리 상태에서 얻은 맥락 정보를 언어 모델 프롬프트에 반복적으로 주입하여 스토리 구절 생성 줄거리의 일관성과 전제의 관롼셩을 위해 다른 시퀀스를 재순..
Title: A Systematic Survey of Prompt Engineering in Large Language Models: Techniques and Applications 링크: https://arxiv.org/abs/2402.07927 프롬프트 엔지니어링 구성 요소의 시각적 분석: 프롬프트를 형성하는 중추 요소인 광범위한 데이터, 지침 및 컨텍스트와 사용자 입력 인터페이스에 대해 교육받은 LLM이다. 대규모 언어 모델(Large Language Models, LLM) 및 시각-언어 모델(Vision-Language Model VLMs) 내의 프롬프트 엔지니어링 분야의 발전에 대한 개요 각 기술의 방법론, 응용, 관련 모델, 사용된 데이터셋에 대한 설명과 장점 및 한계 논의 2.1 New T..
- Total
- Today
- Yesterday
- 퓨샷러닝
- 구글드라이브서버연동
- stylegan
- style transfer
- NLP
- 서버에다운
- Unsupervised learning
- 데이터셋다운로드
- CNN
- vscode 업데이트
- support set
- 파이썬
- 서버구글드라이브연동
- 딥러닝
- clip
- cs231n
- Prompt
- python
- 도커 컨테이너
- docker
- prompt learning
- few-shot learning
- 구글드라이브다운
- 구글드라이브연동
- 프롬프트
- 도커
- vscode 저장
- vscode 자동 저장
- vscode 종료
- 구글드라이브서버다운
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |