첫날은 코드보다 개념에 집중해, AI Agent의 발전 과정과 흐름을 정리해보고자 한다.
1. AI Agent, 왜 주목받고 있을까?
최근 AI의 화두는 더 이상 “모델의 성능”이 아니다.
LLM을 어떻게 ‘에이전트’로 발전시킬 수 있는가가 새로운 주제다.
ChatGPT, Claude, Gemini 같은 LLM은 매우 강력하지만,
여전히 “한 번의 프롬프트 → 한 번의 응답”이라는
정적(Static) 구조에 머물러 있다.
💬 에이전트란?
단순히 답을 생성하는 모델이 아니라,
상태(state) 를 유지하며 목표(goal) 를 향해
스스로 계획(plan) 하고 행동(act) 하며 반성(reflect) 하는 시스템이다.
2. 에이전트의 발전 단계
AI의 진화는 “모델 중심”에서 “시스템 중심”으로 옮겨가는 과정이었다.
| 단계 | 시대 | 핵심 개념 | 특징 |
| 1단계: 규칙 기반 시스템 | 1980s~1990s | Expert System | 사람이 만든 규칙에 따라 작동. 유연성 부족 |
| 2단계: Task-specific 모델 | 2010s | 딥러닝 기반 | 번역, 이미지 분류 등 단일 작업에 특화 |
| 3단계: LLM 기반 어시스턴트 | 2020~2022 | ChatGPT, Claude | 대화형 모델로 발전, 자연스러운 상호작용 가능 |
| 4단계: Agentic Architecture | 2023~현재 | ReAct, AutoGPT, LangGraph | 계획·행동·기억을 통합한 자율 시스템 |
3. CoT → ReAct → AI Agent로의 진화
LLM이 지금처럼 사고하고 행동하는 존재로 발전하기까지, 세 가지 중요한 흐름이 있었다.
흥미롭게도, 이 모든 것은 ‘프롬프트 엔지니어링’ 에서 출발했다.
3.1 CoT (Chain of Thought)
- 출발점: 2022년 Google 논문
- “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models”
- 핵심 아이디어:즉, 사고 과정을 언어로 표현하게 하는 프롬프트 기법이었다.
- Q: 3명의 학생이 각각 2개의 사과를 가지고 있다면, 총 몇 개인가? A: 학생 한 명당 2개 → 3 × 2 = 6 → 정답은 6.
- 모델에게 “정답만 말하지 말고, 생각의 과정을 단계적으로 써라.”
- 성과:모델의 논리적 정확도가 눈에 띄게 향상되었다.
- 단순한 지시 한 줄(“Let’s think step by step”)만으로
- 한계:
- CoT는 ‘생각’을 시각화했을 뿐, 행동(Action) 이나 기억(Memory) 은 여전히 불가능했다.
3.2 ReAct (Reason + Act)
- 출발점: 2022년 스탠퍼드 논문
- “ReAct: Synergizing Reasoning and Acting in Language Models”
- 핵심 아이디어:프롬프트를 설계하면, 외부 도구를 사용할 수 있다.
- Thought: 날씨를 알아보기 위해 검색해야겠다. Action: search("오늘 서울 날씨") Observation: 25도 맑음 Thought: 맑은 날씨군. 외출하기 좋겠다. Answer: 오늘 서울은 맑고 25도입니다.
- LLM이 “생각(Reasoning)”과 “행동(Action)”을 번갈아 수행하도록
- 프롬프트의 역할:
- 모델이 스스로 툴을 사용하는 것처럼 보이게 하는 템플릿이었다.
- 의의:
- 단순 추론(CoT)을 넘어 “환경과 상호작용하는 모델” 로 진화.
- 한계:
- 세션 단위에서만 작동하며, 상태(State)나 메모리(Memory)가 없어 지속적 맥락 유지가 불가능했다.
3.3 AI Agent (Agentic Architecture)
- 기원: CoT와 ReAct의 프롬프트 패턴을 시스템 수준으로 확장.그 과정을 State(상태) 로 관리할 수 있지 않을까?”
- → 이 질문이 Agent 아키텍처의 출발점이었다.
- “모델이 reasoning과 acting을 반복한다면,
- 핵심 아이디어:Plan → Act → Reflect → Repeat 의 루프를
- 구조적으로 설계하고 관리하는 시스템.
- 단일 호출이 아닌,
- 대표 구현체:
- AutoGPT / BabyAGI – 자율적 목표 설정 및 하위 작업 수행
- LangChain AgentExecutor – 도구 기반 행동 흐름
- LangGraph – 상태(State) 기반 그래프 아키텍처
🚀 정리하자면:
CoT와 ReAct는 “프롬프트 수준의 패턴”이었고,
LangGraph 기반 AI Agent는 그 철학을 “시스템 수준의 아키텍처” 로 확장한 결과물이다.
4. 현대 에이전트의 구성 요소
| 구성 요소 | 설명 | LangGraph에서의 대응 |
| State | Agent의 현재 상태, 메모리, 맥락을 저장 | TypedDict, Pydantic 기반 정의 |
| Node | 단일 작업 단위 (예: 검색, 요약, 판단 등) | 그래프의 각 노드로 구성 |
| Edge | 노드 간의 흐름 제어 | 순차 실행, 조건 분기 |
| Memory | 장기 맥락 유지 | MemorySaver, Redis, SQLite |
| Tool | 외부 시스템과의 상호작용 | Runnable, ToolNode, Function Calling |
| Workflow | 전체 Agent 실행 흐름 | StateGraph → compile() 후 실행 |
LangGraph는 이 모든 요소를 그래프 형태로 시각화하고, 상태 변화와 데이터 흐름을 구조적으로 관리할 수 있게 해준다.
5. 왜 LangGraph인가?
LangGraph는 LangChain 팀에서 개발한 LLM 기반 Agent Workflow Framework 다.
기존 LangChain의 한계를 극복하고, “Stateful AI Agent” 개념을 구조적으로 구현할 수 있게 한다.
💡 LangGraph의 철학:
“LLM은 함수(Function)가 아니라 프로세스(Process)다.”
각 노드(Node)가 상태(State)를 입력받아 결과(delta)를 반환하고, 그래프(Graph)는 이를 병합(merge)하며 하나의 지능적 흐름(Intelligent Flow) 으로 작동한다.
6. Agentic AI의 다음 단계
이제 에이전트는 단순한 도우미가 아니라, 도메인 전문성과 자기 반성 능력(Self-Reflection) 을 가진 자율적 문제 해결 시스템으로 진화하고 있다.
예시:
- RAG + Planner Agent → 검색 + 의사결정 자동화
- Tool-use Agent → API 호출, 코드 실행, 문서 생성
- Memory-based Agent → 장기 대화 및 컨텍스트 유지
- GraphRAG / Knowledge Agent → 지식 그래프 기반 추론
'AI > Agent 스터디' 카테고리의 다른 글
| AI Agent 스터디 2일차 — LangGraph의 핵심 개념: State / Reducer / Node / Edge (0) | 2025.11.04 |
|---|---|
| Agent 스터디— LangGraph로 배우는 Agent 아키텍처 (0) | 2025.10.26 |