AI 용어 레퍼런스
AI·LLM 용어 사전
RAG·MoE·컨텍스트 윈도우 등 핵심 AI 용어를 한국어 정의와 사용 맥락으로 30초 안에 확인합니다.
현재 15개 용어 수록 · 매주 갱신
용어 목록
핵심 AI·LLM 용어 정의
- 대규모 언어 모델 LLM
- 방대한 텍스트 데이터로 사전 학습된 딥러닝 모델로, 문맥을 이해하고 자연어를 생성합니다. GPT, Claude, Gemini 등이 대표적입니다.
- 검색 증강 생성 RAG
- 모델의 학습 데이터 외부 문서를 검색해 답변 생성에 활용하는 기법입니다. 최신 정보 반영 및 환각(hallucination) 감소에 효과적입니다.
- 혼합 전문가 MoE
- 입력에 따라 일부 전문가 네트워크만 활성화해 추론하는 모델 구조입니다. 전체 파라미터 대비 실제 연산량이 적어 효율적입니다.
- 컨텍스트 윈도우 Context Window
- 모델이 한 번에 처리할 수 있는 최대 토큰(문자 단위) 수입니다. 클수록 긴 문서 분석·다중 턴 대화가 가능합니다.
- 파인튜닝 Fine-tuning
- 사전 학습된 모델을 특정 태스크 데이터로 추가 학습해 성능을 높이는 기법입니다. PEFT·LoRA 같은 경량화 방식도 포함됩니다.
- 환각 Hallucination
- 모델이 사실과 다른 정보를 그럴듯하게 생성하는 현상입니다. RAG 적용, 출처 요청 프롬프트, 벤치마크 검증으로 완화합니다.
- 프롬프트 엔지니어링 Prompt Engineering
- 원하는 출력을 얻기 위해 입력 텍스트(프롬프트)를 체계적으로 설계하는 기술입니다. 역할 부여, 예시 제공, 출력 형식 지정 등을 포함합니다.
- KMMLU KMMLU
- 한국어 멀티태스크 언어 이해 벤치마크입니다. 한국어 지식·추론 능력을 57개 주제로 평가합니다. 점수가 높을수록 한국어 실무 적용성이 높습니다.
- 토큰 Token
- 모델이 텍스트를 처리하는 최소 단위입니다. 영어는 단어 약 0.75개, 한국어는 약 1~2자가 1토큰에 해당합니다. API 비용과 컨텍스트 윈도우의 기준 단위입니다.
- SWE-bench SWE-bench
- 실제 GitHub 이슈를 기반으로 코드 수정 능력을 평가하는 벤치마크입니다. Verified 버전은 검증된 이슈만 포함합니다.
- 시스템 프롬프트 System Prompt
- 대화 시작 전 모델의 역할·행동 방침·출력 형식을 지정하는 사전 지시문입니다. 일관된 응답 톤을 유지하는 데 핵심적입니다.
- 멀티모달 Multimodal
- 텍스트 외 이미지·오디오·비디오 등 다양한 형태의 입력을 처리할 수 있는 모델 능력입니다.
사용 맥락기획자가 '어떤 LLM을 쓸지 모르겠다'고 할 때, /model-reference에서 가격·한국어 성능을 비교해 직군에 맞는 모델을 선택합니다.
관련 레퍼런스LLM 비교표 보기·LLM 활용 프롬프트 보기
사용 맥락사내 문서를 기반으로 Q&A 시스템을 만들 때 RAG 아키텍처를 적용해 정확도를 높입니다.
관련 레퍼런스RAG 지원 모델 보기·RAG 프롬프트 보기
사용 맥락Llama 4 Scout가 109B 활성 파라미터 MoE 구조를 채택해 오픈소스 중 높은 성능을 보였습니다.
관련 레퍼런스MoE 모델 비교·MoE 활용 프롬프트
사용 맥락Claude 3.7 Sonnet의 200K 컨텍스트 윈도우를 활용하면 50페이지 계약서를 한 번에 분석할 수 있습니다.
관련 레퍼런스컨텍스트 윈도우 비교표·긴 문서 처리 프롬프트
사용 맥락사내 문서 스타일에 맞는 문체를 유지하거나 특정 도메인 용어를 정확히 출력하고 싶을 때 파인튜닝을 검토합니다.
관련 레퍼런스파인튜닝 지원 모델·파인튜닝 활용 프롬프트
사용 맥락보도자료 초안 작성 시 수치나 고유명사를 LLM에게 직접 생성하게 하지 말고, 1차 자료를 제공한 뒤 요약만 요청합니다.
관련 레퍼런스환각률 낮은 모델·환각 방지 프롬프트
사용 맥락마케팅 팀이 반복적인 카피 작성에 역할 기반 프롬프트를 적용하면 일관된 톤앤매너를 유지할 수 있습니다.
관련 레퍼런스프롬프트 호환 모델·직군별 프롬프트 위키
사용 맥락Gemini 2.5 Pro가 KMMLU 73.4점을 달성했으며, 한국어 업무 자동화에 적합합니다.
관련 레퍼런스KMMLU 점수 비교표·한국어 최적화 프롬프트
사용 맥락1M 토큰당 $X의 API 비용 계산 시, 한국어 문서는 영어 대비 토큰 수가 더 많이 발생하는 점을 감안합니다.
관련 레퍼런스1M 토큰 가격 비교·토큰 절약 프롬프트
사용 맥락OpenAI o3가 SWE-bench Verified에서 69.1%를 달성했으며, 코딩 지원 도구 선택의 기준이 됩니다.
관련 레퍼런스코딩 벤치마크 비교표·코딩 지원 프롬프트
사용 맥락운영팀이 고객 응대 자동화 봇을 구성할 때 시스템 프롬프트로 응대 원칙과 금지 발언을 사전 정의합니다.
관련 레퍼런스시스템 프롬프트 지원 모델·시스템 프롬프트 예시
사용 맥락디자인팀이 시안 이미지를 모델에 업로드해 피드백 초안을 자동 생성할 때 멀티모달 기능을 활용합니다.
관련 레퍼런스멀티모달 모델 비교·이미지 분석 프롬프트
자주 묻는 질문
용어 사전 FAQ
- 각 용어 정의는 공식 릴리스 노트·연구 논문·벤치마크 보고서를 1차 자료로 작성합니다. 용어 해석이 분야마다 다를 수 있는 경우 해당 맥락을 함께 기재합니다. 오류나 개선 제안은 contact@egruplar.com으로 보내주세요.