AI

· AI/LLM
🌏 인트로LLM 기반 서비스를 만들 때 가장 핫한 기술 중 하나는 RAG 입니다.그런데 실제로 구현해보면 모델을 불러서 돌리는 것보다, 파이프라인을 어떻게 연결할지, 메모리를 어디에 둘지, 프롬프트 변형은 어떤 조건에서 할지 같은 구성 문제가 훨씬 어렵습니다.LangChain과 LangGraph는 이런 복잡한 LLM 워크플로우를 안정적으로 만들기 위해 등장한 도구입니다.✅ 사전지식: RAG(Retrieval-Augmented Generation)RAG(Retrieval-Augmented Generation)는 모델이 답을 생성하기 전에, 외부 지식 저장소에서 관련 문서를 검색해 함께 넣어주는 방식입니다. LLM은 기본적으로 학습 시점까지의 정보만 알고 있어 최신 데이터나 사내 데이터는 알 수 없기 때문..
· AI/LLM
🌏 MCP(Model Context Protocol)AI 모델이 외부 시스템, 데이터, 도구와 상호작용하는 방식을 표준화한 통신 규약✅ 개념 MCP는 비교적 최근(2024년 말부터 2025년 초까지) Anthropic에서 발표한 프로토콜로, LLM 기반 에이전트 시대에 필요한 모델 중심 프로토콜입니다. 기존 인터넷 프로토콜(HTTP, WebSocket 등)은 네트워크 통신 자체만 정의했지만, MCP는 AI 모델이 어떤 메시지를 주고받을지 자체를 정의합니다. LLM은 적당히 똑똑하지만, 모델 자체가 학습 시점의 지식에 고착되어 있고, 외부 세계와 상호작용할 수 없습니다. 즉, 실시간 데이터에 액세스하거나 회의 예약, 고객 기록 업데이트와 같은 작업을 수행할 수 없습니다. [LLM이 못 하는 것]실제 ..
· AI/딥러닝
🌏 인트로딥러닝(Deep Learning) 모델을 만들고 학습시키기 위한 오픈소스 라이브러리NumPy + GPU + 자동미분 + 신경망 모듈을 합쳐 놓은 패키지모듈역할torch기본 수학 연산, Tensor(배열) 처리torch.nn신경망(Neural Network) 모델 구성용 모듈torch.optim최적화 알고리즘 (Adam, SGD 등)torch.autograd자동 미분 기능torch.utils.data데이터셋 관리, 배치 생성(DataLoader)torchvision / torchaudio / torchtext이미지, 오디오, 텍스트용 확장 라이브러리torch.distributed분산 학습용 라이브러리 (멀티 GPU, 멀티 서버)🌏 PyTorch 전체 구조 한눈에 보기PyTorch는 여러 하위 ..
· AI/VLA
앞선 글에서는 VLA(Vision-Language-Action) 모델의 창발성을 테스트하기 위한 핵심 데이터 표현 언어인 BDDL(Behavior Description Definition Language)을 살펴봤습니다.이번 글에서는 실제로 Object Set으로부터 BDDL을 자동 생성하는 과정을 다루어 보겠습니다.[Object Set으로부터 BDDL을 자동 생성하기]🌏 기존: Object Set → BDDL 직접 생성✅ 구현 방법가장 먼저 시도한 것은 Object Set을 그대로 LLM에 입력해 BDDL을 생성하는 방식이었습니다.입력은 다음과 같이 Python 딕셔너리 형태로 구성되어 있고 주어졌습니다. (유일하게 주어진 것은 object list 뿐입니당){ "living_room": ["tab..
· AI/VLA
🌏 인트로BDDL(Behavior Description Definition Language)은 Embodied AI 연구에서 매우 중요한 자료구조로, 로봇의 행동을 정의하는 상황을 제시하는 언어입니다.VLA 연구에 있어서 굉장히 핵심적인 데이터셋으로 활용되고 있습니다.🌏 VLM/VLA란?✅ VLM (Vision-Language Model)정의: 이미지(또는 영상)와 텍스트를 동시에 이해하고 처리할 수 있는 모델기능이미지를 보고 텍스트로 설명 생성 (Image Captioning)텍스트 기반 질의응답 (예: "이 그림 속에 고양이가 몇 마리야?")멀티모달 검색 (이미지+텍스트 기반 검색)예시: GPT-4V, CLIP, BLIP, Flamingo 등활용 분야시각장애인용 이미지 설명이미지 기반 QA 챗봇제..
· AI/LLM
🌏 LLM Fine-tuning이란?✅ 개념LLM(Fine-tuning)은 이미 사전 학습된 대규모 언어모델(Pre-trained LLM)을 특정 목적에 맞게 추가로 학습시키는 과정입니다.쉽게 말해, GPT나 LLaMA 같은 모델이 이미 ‘언어의 일반적인 패턴’을 충분히 배웠다면, Fine-tuning은 여기에 도메인 지식, 기업 데이터 등을 추가해 모델이 더 내가 원하는 답을 정확하게 하는 것입니다.예를 들어 GPT가 “일반적인 언어 전반”을 안다면, Fine-tuning된 모델은 “법률 문서 요약”이나 “우리 제품의 정보를 안 상태로 자동 고객 응대” 같은 특정 작업을 훨씬 더 잘하게 됩니다.Fine-tuning은 거대한 언어모델을 다시 처음부터 가르치는 것이 아닙니다. 이미 똑똑한 모델에게 “우리..
· AI/딥러닝
🌏 AI 학습에 GPU를 사용하는 이유GPU(Graphics Processing Unit, 그래픽카드)는 원래 그래픽 렌더링을 빠르게 처리하기 위해 만들어진 장치로, 화면의 수많은 픽셀을 동시에 계산하는 병렬 연산에 특화되어 있습니다. CPU는 복잡한 제어와 논리를 수행하지만, 대량의 단순 연산에는 비효율적입니다. 딥러닝은 대규모 행렬 곱셈으로 구성되어 있고, GPU는 수천 개의 코어로 이런 병렬 연산을 한 번에 처리할 수 있어 학습 속도가 크게 향상됩니다. 2000년대 중반 NVIDIA가 GPU를 일반 연산에도 사용할 수 있게 하는 CUDA 기술을 공개하면서, GPU는 그래픽 전용이 아닌 범용 병렬 연산 장치로 진화했습니다. 그 결과 오늘날 대부분의 AI 모델 학습과 추론은 GPU 위에서 수행됩니다...
· AI/LLM
https://github.com/AiResearch2025/FigVarietyRAGChat GitHub - AiResearch2025/FigVarietyRAGChat: RAG 기반 희귀품종 무화과 챗봇 프로젝트RAG 기반 희귀품종 무화과 챗봇 프로젝트. Contribute to AiResearch2025/FigVarietyRAGChat development by creating an account on GitHub.github.com 🌏 sLLM이 왜 필요할까?✅ 인트로최근 몇 년간 인공지능은 LLM(Large Language Model) 덕분에 폭발적으로 발전했다.ChatGPT, Claude, Gemini와 같은 모델들이 대표적이다.이들은 방대한 데이터를 학습해 사람처럼 언어를 이해하고 문장을 생성..
· AI/딥러닝
자연어 처리(NLP)나 시계열 데이터는 입력의 순서가 중요합니다.RNN, LSTM, Transformer는 이런 순차 데이터를 다루기 위해 만들어진 대표적인 구조들입니다.🌍 RNN (Recurrent Neural Network)이전 정보를 기억하면서 순서가 있는 데이터를 처리하는 신경망순차 데이터 처리를 위해 등장함 기호의미x(t)지금 단어의 벡터h(t-1)이전까지의 기억w(x), w(t)학습 가능한 가중치h(t)새로운 기억(은닉 상태)tanh활성화 함수 → 기억 압축 이전 시점까지의 기억과 현재의 입력을 합쳐서 지금까지의 문맥의 요약을 만든 것을 은닉 상태(hidden state)라고 합니다. 즉, 새로운 기억을 만들 때 이때까지의 문맥을 반영하기 때문에 일반적인 NN과 달리 인접한 직전 정보까지의 ..
· AI/딥러닝
🌍 AlexNet (2012)대규모 이미지 인식에서 CNN의 가능성을 처음으로 증명한 모델로지금의 CNN, YOLO, ResNet 등 모든 비전 모델의 출발점이 되었습니다.✅ 활성화 함수 ReLU 등장기존까지는 활성화 함수로 sigmoid, tanh와 같은 함수를 사용했는데, 이 함수들은 미분하면 0으로 수렴하기 때문에 층이 조금만 깊어도 기울기 소실이 심해, 층을 깊이 쌓을 수 없었습니다.RELU가 등장하면서 층을 깊게 쌓을 수 있게 되었습니다.RELU 함수는 결과값이 양수일 때는 미분 값이 그대로 1, 음수일 때는 0으로 기울기가 사라지지 않았습니다.물론 20층 정도까지는 가능하지만 50층 이상 쌓으면 결국 기울기 값이 작아지는 효과가 발생했습니다한 번이라도 입력이 음수여서 0으로 꺼지면, 그 뉴런..
깃짱
'AI' 카테고리의 글 목록