목차
기본 개념
| 용어 | 정의 | 활용 예시 |
|---|---|---|
| 프롬프트(Prompt) | AI 모델에 제공되는 입력 텍스트/지시문 | "다음 뉴스의 핵심을 3줄로 요약해줘" |
| 프롬프트 엔지니어링 | AI 모델에 최적화된 입력을 설계하는 기술/방법론 | 특정 결과를 얻기 위해 프롬프트 구조와 내용을 체계적으로 설계 |
| 출력(Output) | AI 모델이 프롬프트에 응답하여 생성한 결과물 | 텍스트, 코드, 분석 등의 응답 결과 |
| 맥락(Context) | AI 모델이 응답을 생성할 때 참조하는 정보의 범위 | 이전 대화 내용, 제공된 배경 정보 등 |
| 맥락 창(Context Window) | AI가 한 번에 처리할 수 있는 텍스트 길이 제한 | GPT-4는 8K-32K 토큰, Claude 3.5 Sonnet은 200K 토큰 등 |
프롬프트 기법
| 용어 | 정의 | 활용 예시 |
|---|---|---|
| 역할 부여(Role Prompting) | AI에게 특정 역할이나 페르소나를 부여하는 기법 | "당신은 경영 컨설턴트입니다. 다음 사업 계획을 평가해주세요." |
| Chain-of-Thought(CoT) | AI에게 단계별 추론 과정을 요청하는 기법 | "다음 문제를 단계적으로 풀어보세요. 각 단계에서 생각 과정을 설명하세요." |
| Zero-shot Learning | 예시 없이 직접 작업을 수행하도록 지시하는 방식 | "이 텍스트가 긍정적인지 부정적인지 분류하세요." |
| Few-shot Learning | 소수의 예시를 제공하여 작업 방향을 안내하는 방식 | "예시: '좋아요' → 긍정적, '싫어요' → 부정적. '재미있어요'는?" |
| Self-Consistency | 동일한 질문에 여러 방식으로 접근한 후 일관된 답변 도출 | 여러 추론 경로를 탐색하고 가장 일관된 결과 선택 |
| Divergent Thinking | 다양한 관점/아이디어를 요청하는 기법 | "이 문제에 대한 5가지 다른 접근 방식을 제안해 주세요." |
| ReAct(Reasoning + Acting) | 추론 후 행동 단계를 명시하는 기법 | "문제를 분석한 후, 해결을 위한 구체적인 단계를 제시하세요." |
| Tree of Thoughts(ToT) | 여러 사고 경로를 탐색하는 방식 | 복잡한 문제에서 다양한 해결 경로를 고려하고 최적 경로 선택 |
| Adversarial Prompting | 의도적으로 도전적인 질문을 통해 모델 평가 | 모델의 한계를 테스트하거나 반대 관점 분석 유도 |
| Iterative Refinement | 점진적 개선 과정을 통한 프롬프트 최적화 | 초기 결과를 분석하고 프롬프트를 단계적으로 개선 |
고급 개념
| 용어 | 정의 | 활용 예시 |
|---|---|---|
| Temperature | AI 응답의 무작위성/창의성 조절 매개변수 | 낮은 값(0.2)은 일관된 응답, 높은 값(0.8)은 창의적 응답 유도 |
| Top-p Sampling | 확률 분포의 상위 p%만 고려하는 텍스트 생성 방식 | 불필요한 단어 선택 가능성 제한하여 관련성 높은 응답 생성 |
| Hallucination | AI가 사실이 아닌 정보를 그럴듯하게 생성하는 현상 | 실제로 존재하지 않는 연구나 인용 생성 |
| Prompt Template | 재사용 가능한 프롬프트 구조/양식 | 특정 작업에 최적화된 프롬프트 구조를 템플릿화 |
| Retrieval-Augmented Generation(RAG) | 외부 데이터를 참조하여 응답을 생성하는 기법 | 데이터베이스나 문서 검색 결과를 기반으로 정확한 정보 제공 |
| In-context Learning | 프롬프트 내에서 예시를 통해 학습하는 능력 | 프롬프트 내 제공된 예시를 통해 작업 수행 방식 학습 |
| Meta-prompting | 프롬프트 자체를 생성/개선하는 프롬프트 기법 | "다음 목적을 위한 최적의 프롬프트를 작성해 주세요." |
| RLHF(Reinforcement Learning from Human Feedback) | 인간 피드백을 통한 강화학습 방식 | 인간 선호도에 따라 모델 응답 품질 향상 |
| System Prompt | AI 모델의 전반적인 행동/성격을 설정하는 기본 지침 | "당신은 도움이 되고 정확한 정보만 제공하는 비서입니다." |
| Jailbreaking | AI 모델의 안전 제한을 우회하려는 시도 | 금지된 주제에 대한 응답을 유도하는 교묘한 프롬프트 |
평가 및 분석 용어
| 용어 | 정의 | 활용 예시 |
|---|---|---|
| Perplexity | 언어 모델이 텍스트를 예측하는 어려움의 정도 | 낮은 값은 모델이 텍스트를 잘 예측함을 의미 |
| BLEU Score | 기계 번역 품질 평가 지표 | 생성된 텍스트와 참조 텍스트의 유사도 측정 |
| ROUGE Score | 요약 품질 평가 지표 | 생성된 요약과 참조 요약 간의 유사도 측정 |
| Model Alignment | AI 모델이 인간의 의도와 가치에 부합하도록 조정 | 유용성, 진실성, 무해성을 고려한 모델 조정 |
| Bias Evaluation | AI 모델의 편향성 평가 | 특정 그룹이나 주제에 대한 모델의 불공정한 처리 식별 |
| Token | AI 모델이 처리하는 텍스트의 기본 단위 | 단어, 부분 단어, 문자 등으로 텍스트 분할 |
| Confidence Score | AI 모델이 자신의 응답에 대해 갖는 확신의 정도 | 높은 점수는 모델이 응답에 확신함을 의미 |