🌏 인트로LLM 기반 서비스를 만들 때 가장 핫한 기술 중 하나는 RAG 입니다.그런데 실제로 구현해보면 모델을 불러서 돌리는 것보다, 파이프라인을 어떻게 연결할지, 메모리를 어디에 둘지, 프롬프트 변형은 어떤 조건에서 할지 같은 구성 문제가 훨씬 어렵습니다.LangChain과 LangGraph는 이런 복잡한 LLM 워크플로우를 안정적으로 만들기 위해 등장한 도구입니다.✅ 사전지식: RAG(Retrieval-Augmented Generation)RAG(Retrieval-Augmented Generation)는 모델이 답을 생성하기 전에, 외부 지식 저장소에서 관련 문서를 검색해 함께 넣어주는 방식입니다. LLM은 기본적으로 학습 시점까지의 정보만 알고 있어 최신 데이터나 사내 데이터는 알 수 없기 때문..
AI/LLM
🌏 MCP(Model Context Protocol)AI 모델이 외부 시스템, 데이터, 도구와 상호작용하는 방식을 표준화한 통신 규약✅ 개념 MCP는 비교적 최근(2024년 말부터 2025년 초까지) Anthropic에서 발표한 프로토콜로, LLM 기반 에이전트 시대에 필요한 모델 중심 프로토콜입니다. 기존 인터넷 프로토콜(HTTP, WebSocket 등)은 네트워크 통신 자체만 정의했지만, MCP는 AI 모델이 어떤 메시지를 주고받을지 자체를 정의합니다. LLM은 적당히 똑똑하지만, 모델 자체가 학습 시점의 지식에 고착되어 있고, 외부 세계와 상호작용할 수 없습니다. 즉, 실시간 데이터에 액세스하거나 회의 예약, 고객 기록 업데이트와 같은 작업을 수행할 수 없습니다. [LLM이 못 하는 것]실제 ..
🌏 LLM Fine-tuning이란?✅ 개념LLM(Fine-tuning)은 이미 사전 학습된 대규모 언어모델(Pre-trained LLM)을 특정 목적에 맞게 추가로 학습시키는 과정입니다.쉽게 말해, GPT나 LLaMA 같은 모델이 이미 ‘언어의 일반적인 패턴’을 충분히 배웠다면, Fine-tuning은 여기에 도메인 지식, 기업 데이터 등을 추가해 모델이 더 내가 원하는 답을 정확하게 하는 것입니다.예를 들어 GPT가 “일반적인 언어 전반”을 안다면, Fine-tuning된 모델은 “법률 문서 요약”이나 “우리 제품의 정보를 안 상태로 자동 고객 응대” 같은 특정 작업을 훨씬 더 잘하게 됩니다.Fine-tuning은 거대한 언어모델을 다시 처음부터 가르치는 것이 아닙니다. 이미 똑똑한 모델에게 “우리..
https://github.com/AiResearch2025/FigVarietyRAGChat GitHub - AiResearch2025/FigVarietyRAGChat: RAG 기반 희귀품종 무화과 챗봇 프로젝트RAG 기반 희귀품종 무화과 챗봇 프로젝트. Contribute to AiResearch2025/FigVarietyRAGChat development by creating an account on GitHub.github.com 🌏 sLLM이 왜 필요할까?✅ 인트로최근 몇 년간 인공지능은 LLM(Large Language Model) 덕분에 폭발적으로 발전했다.ChatGPT, Claude, Gemini와 같은 모델들이 대표적이다.이들은 방대한 데이터를 학습해 사람처럼 언어를 이해하고 문장을 생성..