728x90
반응형

첫날은 코드보다 개념에 집중해, AI Agent의 발전 과정과 흐름을 정리해보고자 한다.


1. AI Agent, 왜 주목받고 있을까?

최근 AI의 화두는 더 이상 “모델의 성능”이 아니다.

LLM을 어떻게 ‘에이전트’로 발전시킬 수 있는가가 새로운 주제다.

ChatGPT, Claude, Gemini 같은 LLM은 매우 강력하지만,

여전히 “한 번의 프롬프트 → 한 번의 응답”이라는

정적(Static) 구조에 머물러 있다.

💬 에이전트란?

단순히 답을 생성하는 모델이 아니라,

상태(state) 를 유지하며 목표(goal) 를 향해

스스로 계획(plan) 하고 행동(act) 하며 반성(reflect) 하는 시스템이다.


2. 에이전트의 발전 단계

AI의 진화는 “모델 중심”에서 “시스템 중심”으로 옮겨가는 과정이었다.

 

단계 시대 핵심 개념 특징
1단계: 규칙 기반 시스템 1980s~1990s Expert System 사람이 만든 규칙에 따라 작동. 유연성 부족
2단계: Task-specific 모델 2010s 딥러닝 기반 번역, 이미지 분류 등 단일 작업에 특화
3단계: LLM 기반 어시스턴트 2020~2022 ChatGPT, Claude 대화형 모델로 발전, 자연스러운 상호작용 가능
4단계: Agentic Architecture 2023~현재 ReAct, AutoGPT, LangGraph 계획·행동·기억을 통합한 자율 시스템

3. CoT → ReAct → AI Agent로의 진화

LLM이 지금처럼 사고하고 행동하는 존재로 발전하기까지, 세 가지 중요한 흐름이 있었다.

흥미롭게도, 이 모든 것은 ‘프롬프트 엔지니어링’ 에서 출발했다.


3.1 CoT (Chain of Thought)

  • 출발점: 2022년 Google 논문
  • “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models”
  • 핵심 아이디어:즉, 사고 과정을 언어로 표현하게 하는 프롬프트 기법이었다.
  • Q: 3명의 학생이 각각 2개의 사과를 가지고 있다면, 총 몇 개인가? A: 학생 한 명당 2개 → 3 × 2 = 6 → 정답은 6.
  • 모델에게 “정답만 말하지 말고, 생각의 과정을 단계적으로 써라.”
  • 성과:모델의 논리적 정확도가 눈에 띄게 향상되었다.
  • 단순한 지시 한 줄(“Let’s think step by step”)만으로
  • 한계:
  • CoT는 ‘생각’을 시각화했을 뿐, 행동(Action) 이나 기억(Memory) 은 여전히 불가능했다.

3.2 ReAct (Reason + Act)

  • 출발점: 2022년 스탠퍼드 논문
  • “ReAct: Synergizing Reasoning and Acting in Language Models”
  • 핵심 아이디어:프롬프트를 설계하면, 외부 도구를 사용할 수 있다.
  • Thought: 날씨를 알아보기 위해 검색해야겠다. Action: search("오늘 서울 날씨") Observation: 25도 맑음 Thought: 맑은 날씨군. 외출하기 좋겠다. Answer: 오늘 서울은 맑고 25도입니다.
  • LLM이 “생각(Reasoning)”과 “행동(Action)”을 번갈아 수행하도록
  • 프롬프트의 역할:
  • 모델이 스스로 툴을 사용하는 것처럼 보이게 하는 템플릿이었다.
  • 의의:
  • 단순 추론(CoT)을 넘어 “환경과 상호작용하는 모델” 로 진화.
  • 한계:
  • 세션 단위에서만 작동하며, 상태(State)나 메모리(Memory)가 없어 지속적 맥락 유지가 불가능했다.

3.3 AI Agent (Agentic Architecture)

  • 기원: CoT와 ReAct의 프롬프트 패턴을 시스템 수준으로 확장.그 과정을 State(상태) 로 관리할 수 있지 않을까?”
  • → 이 질문이 Agent 아키텍처의 출발점이었다.
  • “모델이 reasoning과 acting을 반복한다면,
  • 핵심 아이디어:Plan → Act → Reflect → Repeat 의 루프를
  • 구조적으로 설계하고 관리하는 시스템.
  • 단일 호출이 아닌,
  • 대표 구현체:
    • AutoGPT / BabyAGI – 자율적 목표 설정 및 하위 작업 수행
    • LangChain AgentExecutor – 도구 기반 행동 흐름
    • LangGraph – 상태(State) 기반 그래프 아키텍처

🚀 정리하자면:

CoT와 ReAct는 “프롬프트 수준의 패턴”이었고,

LangGraph 기반 AI Agent는 그 철학을 “시스템 수준의 아키텍처” 로 확장한 결과물이다.


4. 현대 에이전트의 구성 요소

구성 요소 설명 LangGraph에서의 대응
State Agent의 현재 상태, 메모리, 맥락을 저장 TypedDict, Pydantic 기반 정의
Node 단일 작업 단위 (예: 검색, 요약, 판단 등) 그래프의 각 노드로 구성
Edge 노드 간의 흐름 제어 순차 실행, 조건 분기
Memory 장기 맥락 유지 MemorySaver, Redis, SQLite
Tool 외부 시스템과의 상호작용 Runnable, ToolNode, Function Calling
Workflow 전체 Agent 실행 흐름 StateGraph → compile() 후 실행

LangGraph는 이 모든 요소를 그래프 형태로 시각화하고, 상태 변화와 데이터 흐름을 구조적으로 관리할 수 있게 해준다.


5. 왜 LangGraph인가?

LangGraph는 LangChain 팀에서 개발한 LLM 기반 Agent Workflow Framework 다.

기존 LangChain의 한계를 극복하고, “Stateful AI Agent” 개념을 구조적으로 구현할 수 있게 한다.

💡 LangGraph의 철학:

“LLM은 함수(Function)가 아니라 프로세스(Process)다.”

각 노드(Node)가 상태(State)를 입력받아 결과(delta)를 반환하고, 그래프(Graph)는 이를 병합(merge)하며 하나의 지능적 흐름(Intelligent Flow) 으로 작동한다.


6. Agentic AI의 다음 단계

이제 에이전트는 단순한 도우미가 아니라, 도메인 전문성과 자기 반성 능력(Self-Reflection) 을 가진 자율적 문제 해결 시스템으로 진화하고 있다.

예시:

  • RAG + Planner Agent → 검색 + 의사결정 자동화
  • Tool-use Agent → API 호출, 코드 실행, 문서 생성
  • Memory-based Agent → 장기 대화 및 컨텍스트 유지
  • GraphRAG / Knowledge Agent → 지식 그래프 기반 추론
728x90
반응형

+ Recent posts