-
LLM Prompt Design and Engineering 정리 (CoT, ToT, Self Consistency, ...)AI/NLP 2024. 4. 22. 10:29728x90
LLM Prompt Design and Engineering 정리 (CoT, ToT, Self Consistency, ...)
- Prompt란
- 사용자가 모델의 출력을 안내하기 위해 제공하는 텍스트 입력
- 단순히 프롬프트를 구성하는 것을 넘어서, 특정 도메인 지식, AI 모델에 대한 이해, 그리고 다양한 맥락에 맞춰 프롬프트를 맞춤화하는 체계적인 접근법을 요구
- 예를 들어, 사용자 데이터를 기반으로 개인화된 응답을 생성하는 데 동적으로 채워지는 템플릿이 사용될 수 있음
Chain Of Thoughts (CoT)
- LM이 토큰 예측에는 능숙하지만 명시적인 추론을 위해 설계되지 않았다는 이해에 기반
- CoT는 LLM의 내재된 추론 과정을 명시화하는 데 기반을 두고 있음
- 크게 두 가지 주요 형태
- 1. Zero Shot CoT
- 'Let's think step by step' 라는 지시문 하나로 유도
- 2. Manual CoT
- 단계별 추론 예제를 템플릿으로 제공하는 것
- 일일이 템플릿을 만들어야 하는 번거로움이 발생하기 때문에 automatic CoT 할 수도
- 3. Automatic CoT
- 1단계): 질문 클러스터링(question clustering): 주어진 데이터 세트의 질문을 몇 개의 클러스터로 분할
- 2단계): 데모 샘플링(demonstration sampling): 각 클러스터에서 대표 질문을 선택하고 간단한 휴리스틱과 함께 Zero-Shot-CoT를 사용해 추론 체인을 생성
- 1. Zero Shot CoT
https://github.com/amazon-science/auto-cot
Tree Of Thoughts (ToT)
- 가장 그럴듯한 결론에 도달하기 전에 다양한 대안적 해결책이나 사고 과정을 고려하는 개념
- 인간의 인지 과정처럼 여러 시나리오를 고려한 후 가장 가능성 높은 것을 결정
- 단일 추론 라인으로는 부족할 수 있는 복잡한 문제 해결 시나리오에서 특히 유용하다고 함
Self Consistency
- 앙상블 기반 방법을 활용하여 LLM이 동일한 질의에 대해 여러 응답을 생성하도록 유도
- 의미적 유사도 측정 :
- Bert Score
- N-Gram Ovarlaps
Related Papers
https://arxiv.org/abs/2210.03493
https://arxiv.org/abs/2201.11903
https://arxiv.org/abs/2305.10601
https://arxiv.org/abs/2305.08291
https://arxiv.org/abs/1904.09675
Ref.
https://www.ncloud-forums.com/topic/63/
728x90'AI > NLP' 카테고리의 다른 글
- Prompt란