티스토리 뷰

작성일: 2026-01-25
카테고리: AI/ML, LangChain, Agent Engineering
키워드: AI Agent, LangChain, LangGraph, Agent Harness, LLM Orchestration

요약

2026년 AI 에이전트 시장의 핵심은 모델이 아닌 하네스다. LangChain 설문조사에 따르면 57%의 조직이 파인튜닝 대신 오케스트레이션을 선택하고 있으며, Gartner는 멀티에이전트 시스템 문의가 1,445% 급증했다고 보고한다. 이 글은 LangChain 중심의 학습 가이드와 시장 트렌드를 종합적으로 분석한다.


Part 1: 에이전트 하네스 학습 자료

모델이 엔진이면 에이전트 하네스는 자동차 전체

에이전트 하네스(Agent Harness)는 LLM 주변의 모든 소프트웨어 인프라를 의미한다. 모델의 핵심 추론을 제외한 컨텍스트 수명주기 전체—의도 캡처부터 실행, 검증, 지속까지—를 관리하는 아키텍처 시스템이다.

자동차로 비유하면:

  • 엔진(모델): 원시 동력 생성
  • 자동차(하네스): 동력을 실제 이동으로 변환 (조향, 브레이크, 연료 시스템, 변속기)
구성요소 엔진 (모델) 자동차 (하네스)
기능 원시 출력 생성 출력을 유용한 작업으로 변환
AI 해당 텍스트/추론 생성 도구, 메모리, 오케스트레이션

동일한 LLM을 사용하는 두 제품이 하네스 품질에 따라 극적으로 다른 성능을 보인다. Manus는 6개월간 하네스를 5번 리팩토링했고, Vercel은 도구의 80%를 제거하여 더 나은 결과를 얻었다.


LangChain 프레임워크 아키텍처

LangChain은 단순한 프레임워크에서 종합 생태계로 진화했다. 2025년 기준 GitHub 스타 118,000개 이상, 1000명 이상의 기여자, 100개 이상의 통합을 보유한다.

핵심 패키지 구조

  • langchain-core: 채팅 모델, 벡터 스토어, 도구 등 기본 추상화 (경량, 최소 의존성)
  • langchain: 체인, 에이전트, 검색 전략을 포함한 인지 아키텍처 구축
  • 통합 패키지: langchain-openai, langchain-anthropic 등 별도 버전 관리

플랫폼 컴포넌트

컴포넌트 역할 핵심 기능
LangGraph 상태 기반 에이전트 빌더 그래프 기반 워크플로우, 체크포인트, Human-in-the-loop
LangSmith 관측성/평가 플랫폼 추적, 모니터링, A/B 테스트, LLM-as-judge
LangServe REST API 배포 체인을 API로 노출 (LangGraph Platform 권장)

LCEL: LangChain Expression Language

LCEL은 파이프 연산자(|)를 사용한 선언적 체인 구문이다. 스트리밍, 비동기 실행, 병렬 처리, 배치 처리를 기본 지원한다.

from langchain_openai import ChatOpenAI
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser

# LCEL 파이프 연산자로 체인 구성
chain = (
    ChatPromptTemplate.from_template("Write a joke about {topic}") 
    | ChatOpenAI(model="gpt-4o-mini") 
    | StrOutputParser()
)

result = chain.invoke({"topic": "programming"})

LangGraph 심층 분석

LangGraph는 상태 기반 장기 실행 에이전트를 위한 저수준 오케스트레이션 프레임워크다. GitHub 스타 21,000개 이상, Klarna, LinkedIn, Uber, Elastic 등이 사용한다.

에어컨 온도 조절기를 생각해보자. "25도로 맞춰줘"라고 설정하면, 에어컨이 알아서 현재 온도를 확인하고 25도가 될 때까지 냉방/난방을 반복한다. LangGraph도 똑같이 "원하는 상태"만 선언하면 알아서 맞춘다.

from langgraph.prebuilt import create_react_agent

agent = create_react_agent(
    model="anthropic:claude-3-7-sonnet-latest",
    tools=[get_weather],
    prompt="You are a helpful assistant"
)

LangGraph 핵심 장점

  • 내구성 있는 실행: 실패 시 체크포인트에서 자동 재개
  • Human-in-the-Loop: 에이전트 상태를 언제든 검사/수정 가능
  • 종합적 메모리: 단기 작업 + 장기 영구 메모리
  • 네이티브 스트리밍: 실시간 출력 지원

에이전트 하네스 설계 핵심 고려사항

1. Tool Calling 메커니즘

도구 호출은 LLM이 외부 시스템과 상호작용하게 하는 핵심이다.

작동 원리:

  1. 모델이 도구 정의(JSON 스키마)를 컨텍스트로 수신
  2. 구조화된 도구 호출 출력 생성 (예: search("climate data"))
  3. 하네스가 도구를 외부에서 실행
  4. 결과를 모델 컨텍스트에 피드백
  5. 모델이 결과를 추론하고 다음 액션 결정

Anthropic 엔지니어링 권장사항:

  • 개발자가 아닌 에이전트를 위해 도구 설계 (비결정적 사용자에 적합하게)
  • 명확한 네임스페이스 사용 (예: asana_projects_search, jira_search)
  • 간결하지만 설명적인 도구 정의 (토큰 소비 고려)
  • 평가 기반 개발: 도구 선택 정확도, 오류율, 파라미터 정확성 테스트

2. Memory 시스템

유형 기능 예시
단기 메모리 현재 대화 상태, 즉각적 태스크 컨텍스트 인컨텍스트 학습
시맨틱 메모리 구조화된 사실적 지식 "사용자는 아침 회의 선호"
에피소드 메모리 특정 과거 이벤트 회상 "지난 화요일 기술주 추천이 저조했음"
절차적 메모리 학습된 기술과 행동 "환승 검증이 있는 항공편 예약 최적 프로세스"

핵심 과제:

  • 지연 시간: 지속적 검색/저장이 응답 속도 저하
  • 망각: 어떤 정보가 구식인지 판단
  • 컨텍스트 오염: 과도한 컨텍스트가 모델 성능 저하

3. Planning 전략

전략 기능 최적 용도
Chain-of-Thought 단계별 추론 후 답변 외부 정보 불필요한 로직 중심 태스크
ReAct 사고와 도구 사용 교차 외부 정보 검색 필요 태스크
Tree of Thoughts 다중 추론 경로 탐색, 평가, 최선 선택 여러 해결책이 가능한 문제
Plan-and-Execute 전체 계획 수립 후 순차 실행 예측 가능한 워크플로우
Reflexion 자기 평가 및 메모리 기반 개선 실수에서 학습이 필요한 경우

4. 가드레일 및 안전장치

공항 보안 검색대를 생각해보자:

  1. 입력 가드레일: 여권 보여주세요 (신원 확인) - 요청 검증, 탈옥/프롬프트 주입 감지
  2. 실행 중 가드레일: 이 비행기 탑승권 맞나요? (권한 확인) - 도구 호출 검증, 리소스 제한
  3. 출력 가드레일: 탑승권에 게이트 번호 스탬프 (정보 추가) - PII 필터링, 환각 감지, 정책 준수

LangChain 학습 추천 리소스

공식 문서

DeepLearning.AI 무료 강좌 (권장 학습 순서)

주차 강좌명 내용
1-2 LangChain for LLM Application Development LangChain 기초 (1시간)
2-3 LangChain: Chat with Your Data RAG와 문서 상호작용
3-4 Functions, Tools and Agents with LangChain LCEL과 고급 기능
5-6 AI Agents in LangGraph LangGraph로 에이전트 구축
7+ Long-Term Agentic Memory with LangGraph 고급 메모리 시스템

GitHub 저장소


LangChain vs 다른 에이전트 프레임워크

프레임워크 핵심 철학 최적 용도 난이도 프로덕션 준비도
LangChain/LangGraph 모듈식 툴킷 복잡한 다단계 워크플로우 중급 높음
Microsoft AutoGen 멀티에이전트 대화 에이전트 간 협업 중급 성장 중
CrewAI 역할 기반 팀 콘텐츠 생성, 리서치 초급 성숙 중
AutoGPT 완전 자율 에이전트 프로토타이핑, 실험 초급 낮음
OpenAI Assistants SDK 관리형 에이전트 OpenAI 생태계 초급 높음
LlamaIndex 데이터 우선 접근 RAG 및 문서 검색 중급 높음
Haystack 프로덕션 RAG 엔터프라이즈 검색 시스템 중급 매우 높음

프레임워크 선택 가이드:

  • 스타트업/빠른 프로토타입: LangChain (유연성) 또는 CrewAI (단순성)
  • 엔터프라이즈 Microsoft 환경: Semantic Kernel + AutoGen
  • RAG 중심: LlamaIndex (빠른 설정) 또는 Haystack (프로덕션 우선)
  • 멀티에이전트 시스템: AutoGen (최고의 네이티브 지원) 또는 LangGraph (최대 제어)

Part 2: 2025-2026 AI 에이전트 시장 트렌드

에이전트 하네스 vs LLM 모델: 중요도 변화

전망 검증: "에이전트 하네스가 더 중요해진다"

Phil Schmid(2026년 1월 분석)은 "수년간 모델에만 집중했지만, 정적 리더보드에서 최상위 모델 간 차이가 줄어들고 있다"고 밝혔다. 에이전트 하네스를 "운영체제", LLM 모델을 "CPU"로 비유했다.

LangChain State of Agent Engineering 설문조사 (2025년 12월, 1,340명 응답):

지표 수치 의미
프로덕션 에이전트 보유 조직 57.3% 2024년 51%에서 상승
파인튜닝 미실시 조직 57% 오케스트레이션 + 프롬프트 엔지니어링 선호
다중 모델 사용 조직 75% 이상 태스크별 모델 라우팅
관측성 구현 조직 89% 모델 개선보다 인프라 우선
품질이 최대 장벽 32% 모델 능력이 아닌 품질 문제

Gartner 인사이트:

  • 멀티에이전트 시스템 문의 1,445% 급증 (2024년 Q1 → 2025년 Q2)
  • 2026년까지 40%의 엔터프라이즈 애플리케이션이 태스크별 AI 에이전트 포함 (2025년 5% 미만에서)

파인튜닝 vs 에이전트 오케스트레이션

호텔을 운영한다고 생각해보자.

파인튜닝: 직원 한 명 한 명을 특별 훈련시키기 (비싸고, 시간 걸리고, 직원 바뀌면 처음부터)
오케스트레이션: 컨시어지 한 명이 적절한 부서로 배분 (빠르고, 유연하고, 직원 교체 가능)

요소 파인튜닝 오케스트레이션
필요 투자 높음 (데이터 수집, 라벨링, 인프라) 낮은 진입 장벽
유연성 특정 모델에 종속 모델 교체 용이
프로덕션 시간 주/월 단위 일/주 단위
유지보수 지속적 재훈련 필요 프롬프트/라우팅 조정
모델 개선 혜택 재파인튜닝 필요 새 모델 즉시 활용

파인튜닝이 여전히 중요한 경우:

  • Amazon Pharmacy: 파인튜닝으로 니어미스 약물 오류 33% 감소
  • 규제 산업(의료, 법률, 금융)에서 정확도 요구

전문가 견해: "에이전트 플릿이 매일 수천 번의 LLM 호출을 수행하면서, 비용-성능 트레이드오프가 사후 고려가 아닌 필수 엔지니어링 결정이 되었다. 규모에서의 에이전트 경제학은 이종 아키텍처를 요구한다."


특화 LLM, 온프레미스, 에지 AI 전망

Small Language Models (SLMs) 부상

Gartner는 2027년까지 조직이 범용 LLM보다 태스크 특화 소형 모델을 3배 더 많이 사용할 것으로 예측한다. Dell은 2026년을 "SLM의 해"로 선언했다.

영역 특화 모델 예시 장점
의료 Diabetica-7B 당뇨 관련 테스트에서 GPT-4보다 높은 정확도
법률 Harvey AI 인용된 법적 참조, 감사 가능 소스
금융 Rogo 실시간 시장 데이터, 금융 용어 이해
RAG Cohere Command R7B 표준 CPU에서 실행, 23개 언어 지원

NVIDIA 연구 논문(2025년 6월): "소형 언어 모델이 에이전트 AI의 미래다" — 다음 진정한 도약은 더 큰 모델이 아닌 특정 에이전트 태스크에 최적화된 소형 모델에서 올 것이라고 주장

에지 AI 배포 트렌드

2026년은 에지 AI 변곡점이다. 핵심 동인:

  • 프라이버시/규정 준수: GDPR, HIPAA, EU AI Act(2026년 전면 시행)가 로컬 데이터 처리 요구
  • 지연 시간: 에지 LLM은 100ms 미만 응답 vs 클라우드 500ms+
  • 비용: 에지 최적화 SLM 전환 후 클라우드 추론 비용 50% 감소

2025-2026 AI 에이전트 시장 규모 및 예측

출처 2025년 규모 2030년 예측 CAGR
MarketsandMarkets $78.4억 $526.2억 46.3%
Grand View Research $76.3억 $1,829.7억 (2033) 49.6%
Fortune Business Insights $72.9억 $1,391.9억 (2034) 40.5%

주요 세그먼트 성장률:

  • 멀티에이전트 시스템: CAGR 48.5%
  • 코딩/소프트웨어 개발 에이전트: CAGR 52.4%
  • 버티컬 AI 에이전트: CAGR 62.7% (최고 성장)

투자 트렌드:

  • 2025년 전체 AI 스타트업 펀딩: $2,030-2,250억 (2024년 대비 75% 증가)
  • AI 에이전트 스타트업 펀딩: 2024년 $38억 (전년 대비 3배)
  • 2025년 현재 $28억, 연말까지 $67억 예상

주요 기업 AI 에이전트 전략

OpenAI: 채팅에서 액션으로

  • ChatGPT Agent(2025년 7월): "에이전트 모드" 드롭다운으로 완전 통합
  • AgentKit(2025년 10월): Agent Builder, ChatKit, Connector Registry 포함 개발자 툴킷
  • 전략 방향: 추론을 "핵심 다이얼"로 하는 에이전트 네이티브 API, 비주얼 캔버스 설계의 멀티에이전트 오케스트레이션
  • 오픈소스 하이브리드: 오픈소스 Agents SDK, gpt-oss 모델 / 독점 클라우드 API

Anthropic: 업계 표준 설정

  • Model Context Protocol (MCP): AI와 외부 시스템 연결 오픈 표준 (2024년 11월 출시, 2025년 12월 Linux Foundation에 기부)
  • Agent Skills: SKILL.md 파일로 반복 가능한 워크플로우 정의 오픈 스펙
  • 전략 방향: MCP가 ChatGPT, Cursor, Gemini, VS Code에 채택되며 사실상 표준으로 부상
  • 오픈소스 강조: MCP 완전 오픈, 독점 Claude 모델

Google/DeepMind: 유니버설 AI 어시스턴트 비전

  • Project Astra: Gemini 2.5 Pro 기반 실시간 멀티모달 AI 어시스턴트
  • Project Mariner: 최대 10개 동시 태스크 처리하는 브라우저 기반 자율 에이전트
  • 전략 방향: "World Model" 비전—실세계 시나리오 시뮬레이션 및 계획, Google 생태계와 깊은 통합

Microsoft: 엔터프라이즈 에이전트 리더십

  • Microsoft Agent Framework: Semantic Kernel + AutoGen 통합 SDK (MIT 라이선스)
  • Copilot Studio: 로우코드 에이전트 빌딩 플랫폼
  • 전략 방향: "Frontier Firm"—모든 직원에게 Copilot, 많은 에이전트가 지원하는 조직 비전
  • 파트너십: OpenAI GPT-5, Anthropic Claude 모두 Copilot에서 사용 가능

Amazon/AWS: 엔터프라이즈 인프라 집중

  • Bedrock AgentCore: 프로덕션 AI 에이전트를 위한 종합 인프라 (2025년 GA)
  • Strands Agents: 오픈소스 에이전트 SDK
  • 전략 방향: "에이전트 AI를 위한 운영체제" 접근 — (1) 플랫폼/SDK로 빌더 지원, (2) Q와 같은 사전 구축 에이전트

Meta: 오픈소스 챔피언

  • Llama Stack: 에이전트 애플리케이션을 위한 표준화된 인터페이스
  • Llama 4 패밀리(2025년 4월): Scout (109B), Maverick (400B), Behemoth (훈련 중)
  • 전략 방향: Llama를 "업계 표준"으로—범용 어시스턴트보다 특화되고 태스크 지향적인 AI 에이전트에 집중

Salesforce: 엔터프라이즈 CRM 에이전트 리더

  • Agentforce: 자율 AI 에이전트 플랫폼, Atlas Reasoning Engine 기반
  • 목표: "2025년 말까지 10억 에이전트"
  • 전략 방향: 코파일럿에서 완전 자율 에이전트로의 "AI 제3의 물결", 25년간의 워크플로우 데이터가 경쟁 우위
  • 가격: 대화당 $2의 미터링 가격

업계 표준화 및 협력 동향

Agentic AI Foundation (AAIF) 설립:

  • 공동 창립: Anthropic, Block, OpenAI
  • 지원자: Google, Microsoft, AWS, Cloudflare, Bloomberg
  • 프로젝트: MCP, goose (Block), AGENTS.md (OpenAI)

교차 기업 통합:

  • Microsoft + OpenAI: GPT-5를 Copilot에
  • Microsoft + Anthropic: Claude를 Copilot Studio에
  • Apple + Google: Gemini가 Siri 파워링 (2026년)
  • 모든 메이저 기업: MCP 채택

결론: 전략적 시사점

검증된 전망

"2026년에 에이전트 하네스가 더 중요해지고 AI 모델은 전체 에이전트 설계에서 작은 영역이 될 것"이라는 예측은 대체로 타당하다:

  • 57%의 조직이 파인튜닝 대신 오케스트레이션 선택
  • 멀티에이전트 문의 1,445% 급증
  • 선도 제품들의 잦은 하네스 리아키텍처 (6개월에 5회)
  • 모델 개선보다 관측성 구현이 우선 (89%)

핵심 전략 권고

  1. 삭제를 전제로 구축: 모델이 빠르게 개선되므로 하네스는 모듈식으로, 재아키텍처에 대비
  2. 이종 모델 전략: 복잡한 추론에는 프론티어 모델, 표준 태스크에는 중급 모델, 고빈도 실행에는 SLM으로 라우팅
  3. 오케스트레이션 우선: 오케스트레이션으로 시작, 고영향 사례에만 파인튜닝
  4. 에지 준비: 규제가 요구하는 하이브리드 에지-클라우드 배포 준비
  5. 컨텍스트 엔지니어링: 이 분야가 모델 선택만큼 중요해지고 있음

LangChain 학습자를 위한 로드맵

단계 활동 예상 기간
기초 DeepLearning.AI 입문 강좌, 공식 문서 2주
핵심 기술 RAG 실습, LCEL, 도구/에이전트 강좌 2주
고급 LangGraph 강좌, GitHub 예제 탐색, LangSmith 설정 2주
프로덕션 장기 메모리 강좌, 완전한 에이전트 프로젝트 구축 2주+

에이전트 하네스가 단순한 인프라가 아닌 제품 차별화의 핵심이 되는 시대다. 모델의 능력은 점점 상향 평준화되고 있으며, 진정한 경쟁력은 그 모델을 얼마나 효과적으로 오케스트레이션하고, 도구와 연결하고, 메모리를 관리하는가에 달려 있다.


참고 자료

공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2026/02   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
글 보관함