Claude Skills가 보여주는 AI 에이전트의 새로운 패러다임

오늘날 AI 에이전트 기술은 과거의 제한된 접근 방식에서 벗어나 빠르게 발전하고 있다. 특히 최근 Anthropic의 Claude 모델에 추가된 Skills 기능은 이러한 진화의 분수령으로 주목된다. 이 기능은 이전 세대 기법인 RAG나 MCP보다 더 큰 파급력을 가지고, 기존 레거시 방식에서 벗어난 첫걸음으로 평가된다. 이제 RAG에서 MCP을 거쳐 Skills에 이르는 흐름을 살펴보며, LLM 기반 에이전트 활용 패러다임의 변화를 짚어본다.
RAG: 검색 증강 생성으로 할루시네이션을 억제하다
RAG는 LLM의 고질적인 문제였던 할루시네이션을 완화하기 위해 등장한 기법이었다. 요지는 모델의 응답을 외부 지식으로 제한하는 것이다. 예를 들어 사용자의 질문에 답하기 전에 관련 정보를 검색하고, 그 검색 결과를 모델에게 컨텍스트로 제공함으로써 보다 정확하고 최신의 응답을 생성하도록 유도한다. 이는 모델이 자체적으로 만들어낼 수 있는 근거 없는 답변을 줄이고, 검증된 외부 정보에 근거한 답변을 하게끔 하는 효과가 있다.
RAG의 작동 방식은 기존 검색 엔진을 결합한 것과 유사하다. 질문 → 검색 → 응답의 흐름으로, LLM은 검색된 문서를 참고하여 답변을 만들어낸다. 이러한 전통적인 검색 방식의 틀을 LLM에 접목한 덕분에, RAG 시스템은 비교적 신뢰할 만한 결과를 내놓을 수 있었다. 특히 기업 환경에서 사내 문서나 데이터베이스를 통합해 사내 지식 Q&A 봇을 만드는 등 RAG는 널리 활용되었다.
그러나 RAG에는 분명한 한계도 존재했다. 첫째, 모델이 활용할 수 있는 지식이 제공된 컨텍스트로 제한되기 때문에, 만약 검색된 자료에 필요한 정보가 빠져 있다면 모델은 충분한 답을 내놓기 어렵다. 둘째, 유용한 정보를 찾기 위해 질의 응답을 반복적으로 수행해야 하는 복잡한 시나리오에는 RAG가 잘 맞지 않았다. LLM 스스로 필요한 추가 정보를 능동적으로 탐색하는 기능이 부족하여, 검색 쿼리의 설계와 단일 턴의 답변 생성에 의존해야 했다. 요컨대, RAG는 LLM의 할루시네이션 문제를 보완했지만 동시에 모델의 활용 범위를 외부 지식으로 엄격히 한정하는 접근법이었다. 이는 LLM의 자유로운 추론 능력을 어느 정도 구속하는 측면이 있었고, 아키텍처상 여전히 외부 시스템(검색엔진, 벡터DB 등)에 크게 의존하는 레거시 방식을 답습한 것이었다.
MCP: 모델 컨텍스트 프로토콜로 열린 도구 연결
MCP는 2024년 말 Anthropic이 제안한 새로운 표준으로, LLM을 다양한 외부 데이터 및 도구와 표준화된 방식으로 연결하기 위한 프로토콜이다. 한마디로 LLM을 외부 세계와 이어주는 USB-C 포트와 같은 역할을 한다. 이 접근은 RAG와는 순서가 반대인데, RAG가 사람이나 시스템이 미리 검색한 정보를 모델에 넣어주는 방식이라면 MCP에서는 모델이 대화 중 스스로 필요에 따라 외부 리소스에 접근한다. 이를 통해 LLM은 보다 능동적인 에이전트로 거듭난다. 사용자의 요청을 처리하면서, 필요한 데이터나 기능이 있다면 모델이 직접 MCP를 통해 API 호출이나 DB 질의, 파일 접근 등의 액션을 트리거하는 식이다.
이 변화는 LLM 활용의 주도권이 모델로 이동했다는 점에서 중요한 의미를 지닌다. RAG에서는 개발자가 어떤 정보를 넣어줄지 결정해야 했지만, MCP를 사용하면 모델이 스스로 결정하여 외부 정보를 가져오거나 행동할 수 있다. 예를 들어, 고객 지원 봇이 MCP를 통해 사내 데이터베이스를 질의하거나, 이슈 트래커 API를 호출해 버그 리포트를 생성하는 식으로 실시간 액션을 수행할 수 있다. 이는 단순 질의응답을 넘어 업무 프로세스에 직접 개입하는 AI 에이전트를 가능하게 했다.
하지만 MCP 접근에도 난제가 있었다. 가장 큰 문제로 떠오른 것은 토큰 사용량의 급증이다. MCP는 모델에게 외부 컨텍스트(예: 파일 내용, 응답 데이터 등)를 전달하기 위해 상당한 분량의 프롬프트를 주고받는다. 실제로 알려진 사례에 따르면, GitHub의 공식 MCP 구현은 그 자체만으로 수만 개의 토큰을 소비했다고 한다. 여러 외부 리소스를 한꺼번에 연결하면 정작 LLM이 추론하고 답변을 작성할 컨텍스트 여유가 거의 남지 않는 문제가 생긴다. 이렇듯 긴 컨텍스트에 대한 부담은 MCP의 실사용에 걸림돌이 되었다.
또한 MCP는 이름 그대로 복잡한 프로토콜 사양을 정의하고 있다. 호스트-클라이언트-서버 구성, 세션 상태 유지, 스트림 통신 등 세밀한 표준을 따라야 하므로 구현이 어렵고 진입장벽이 높았다. 사실 MCP의 철학은 기존 소프트웨어 통합 패턴을 LLM에 적용한 것에 가깝다. 과거에 API를 설계하고 인증을 처리하던 방식을 LLM과 대화하게 만든 셈인데, 이는 혁신적이긴 해도 완전히 새로운 개념이라기보다는 기존 방식의 래핑(wrapper)으로 볼 수 있다. 덕분에 필요한 외부인터페이스와 정보 요소들을 표준화하고 LLM이 알 수 있게 한 점 등 장점도 있지만, 결국 복잡성과 비용이라는 벽에 부딪히고 있다. 요약하면 MCP는 RAG처럼 모델을 외부 지식으로 제한하지는 않았지만, 모델을 도구와 연결하기 위한 복잡한 틀을 제공하면서 새로운 부담을 함께 가져온 셈이다.
Skills: 에이전트의 학습을 지속시키는 새로운 시스템
Anthropic이 2025년 10월에 공개한 Claude Skills 기능은 앞선 한계를 뛰어넘는 새로운 에이전트 패러다임을 제시한다. Skills는 Claude 모델이 특정 작업을 더 잘 수행할 수 있도록 도와주는 재사용 가능한 워크플로우이다. 형식적으로는 “폴더 단위의 스킬”로, 그 안에 해당 작업에 대한 지침서(Markdown)와 필요한 경우 실행 코드 스크립트, 기타 리소스가 포함된다. 한마디로 전문 작업을 수행하는 작은 모듈들을 만들어 놓고, Claude가 필요할 때 적절한 모듈(스킬)을 불러 쓰는 구조다.
이 시스템의 핵심은 토큰 효율성과 지식 축적에 있다. Skills의 동작 방식은 다음과 같다:
- 세션 시작 시 Claude는 사용 가능한 모든 스킬 폴더를 스캔하여, 각 스킬의 Markdown 상단에 있는 짧은 설명(YAML 메타데이터)만 읽어둔다. 이 설명은 해당 스킬의 이름과 언제 쓰이는지에 대한 요약으로, 보통 수십 토큰 정도에 불과하다.
- 실제 대화 중에 사용자의 요청이 특정 스킬과 관련이 있다고 판단되는 순간, Claude는 그 스킬의 전체 내용을 불러와 적용한다. 관련이 없는 스킬의 내용은 끝내 불러오지 않으므로 필요한 때에만 필요한 정보만 로드하는 지연 로딩(lazy loading) 개념으로 이해할 수 있다.
이런 설계 덕분에, Skills는 컨텍스트 초반에 드는 토큰 비용이 극히 적다. 수십 개의 스킬이 등록되어 있어도 각 스킬은 요약 메타데이터만 살짝 걸치고 있을 뿐이어서, 토큰 낭비 없이 전문 지식을 대기시켜 둘 수 있다. 그리고 막상 특정 스킬이 동원되면, 그때서야 해당 Markdown 문서와 필요에 따라 스크립트가 투입되어 모델의 행동을 안내한다. 이는 단순히 문서를 많이 불러오는 것과 달리, 모델에게 작업 방법을 “주입”하는 새로운 방식이다. 과거에는 LLM에게 복잡한 규칙이나 절차를 따르게 하려면 긴 프롬프트를 넣어야 했지만, Skills 체계에서는 그 지침을 외부 파일로 빼두었다가 상황에 맞게 참고하도록 만든 것이다.
Skills의 가장 혁신적인 측면은 LLM 에이전트가 시행착오를 통해 얻은 해결 방법을 축적하고 재사용할 수 있다는 점이다. 기존의 에이전트 구성에서는, 예를 들어 모델이 코드를 여러 번 시도하며 문제를 해결했더라도 그 노하우를 영구히 저장해 두는 방법이 없었다. 새로운 세션이 시작되거나 비슷한 문제를 다시 풀 때면, 또다시 처음부터 모든 과정을 반복해야 했다. 그러나 Skills를 통해 한 번 만들어진 전문 워크플로우가 “스킬”로 저장되면, 이후에는 동일하거나 유사한 작업에 대해 그 스킬을 바로 호출함으로써 곧바로 학습된 해결책을 적용할 수 있다. 이는 마치 숙련공이 경험을 통해 터득한 기술을 매뉴얼로 만들어 두고 후배들이 그대로 활용하는 모습과도 같다. 토큰 측면에서는 물론 시간 측면에서도 큰 절약이 이루어지며, 모델은 불필요한 시행착오 과정을 생략하고 더욱 신속하게 정확한 결과를 낼 수 있게 된다.
또한 Skills는 LLM 자체의 제약을 두지 않으면서도 RAG가 지향했던 목적을 달성할 수 있게 해준다. 예를 들어 어떤 전문 지식이나 규칙이 필요한 작업이라면, RAG에서는 사전에 그 정보를 검색해서 모델에게 던져주고 답변을 제한하는 식으로 모델을 관리했다. 반면 Skills에서는 모델이 필요한 순간에 해당 지식(Skill)을 참조하여 활용하므로, 모델의 창의적 사고를 억누르지 않으면서도 정확한 정보 활용이 가능하다. 결과적으로 할루시네이션을 줄이면서도 답변 품질을 높이는 효과를 기대할 수 있다. Skills에 담긴 지침들은 조직이나 분야별 훌륭한 예제나 표준 지식이 될 수 있어서, 모델이 그 상황에 최적화된 행동을 취하도록 돕는다. 이는 제한을 통해 안전성을 확보하던 RAG와는 결이 다르게, 능동적으로 옳은 방법을 선택함으로써 목적을 달성하는 접근이라 할 수 있다.
기술적인 관점에서 Claude Skills는 단순함에 기초한 강력함을 보여준다. Anthropic은 Skills를 Markdown + YAML + 선택적 스크립트로 이루어진 아주 간단한 구조로 설계했다. 복잡한 프로토콜이나 거창한 프레임워크 없이, 사람이 읽을 법한 설명서를 작성하면 모델이 알아서 해석해 실행한다. 이 점에서 Skills는 LLM의 정신과 매우 가까운 설계이다. 사람도 매뉴얼을 읽고 따라하듯, LLM도 텍스트로 된 매뉴얼을 이해하고 행동하는 것이다.
Anthropic이 제공한 예시들만 보더라도, Skills를 통해 Claude는 엑셀 파일을 읽고 수식이 포함된 스프레드시트를 작성하거나 기업의 브랜드 가이드라인에 맞춰 PPT와 문서를 생성하는 등 특정 분야에 특화된 업무까지 수행할 수 있다. 이는 더 이상 AI가 범용 답변 생성에 머물지 않고, 전문가의 업무 방식까지 내재화하여 바로 실천하는 단계로 접어들었음을 의미한다. Skills의 등장은 진정한 에이전트 자동화의 패러다임 전환으로 받아들여질 수 있다.
RAG → MCP → Skills: 레거시에서 벗어난 에이전트 패러다임
앞서 살펴본 RAG, MCP, Skills 세 가지 접근법은 LLM 활용 전략의 진화 과정을 잘 보여준다. RAG는 LLM의 한계를 검색이라는 기존 방식으로 보완한 초기 단계였다. 그러나 이 방식은 LLM을 외부 지식에 종속시킴으로써 모델의 능력을 일정 부분 제약하는 트레이드오프가 있었다. MCP는 다음 단계로, LLM이 스스로 외부 도구와 소통할 길을 열어주었다. 이는 에이전트라는 개념을 부흥시켰고, AI가 정적인 챗봇을 넘어 능동적 문제 해결자로 나아가는 계기가 되었다. 그럼에도 MCP는 복잡한 사양과 높은 토큰 비용이라는 실용적 한계로 인해 대중화에 어려움을 겪었다. 한편, Skills는 에이전트 중심의 새로운 길을 제시한다. Skills를 통해 LLM은 마치 스스로 프로그램을 작성하고 개선하듯이, 필요한 능력을 학습해 축적하고 상황에 따라 활용한다. 이는 과거의 레거시 시스템 산물이 아닌, LLM 자체의 산물이라고 부를 만하다. 모델이 대화 맥락 속에서 자체적으로 지식을 불러쓰고 능력을 확장하는 모습은, 일종의 AI 자체의 운영체제가 생긴 듯한 느낌마저 준다.
이러한 변화의 흐름을 정리하면 다음과 같다:
- RAG: LLM을 외부 지식에 의존/제한시켜 정확도를 높이는 접근. 장점: 사실 오류 감소, 최신 정보 활용. 단점: 모델의 능동적 탐색 부족, 품질이 검색의 성능에 의존.
- MCP: LLM이 외부 도구를 능동적으로 호출하도록 표준화한 접근. 장점: 에이전트화로 다양한 액션 가능, 통합 유연성. 단점: 프로토콜 구현 복잡, 대화 컨텍스트에 과부하, 실사용 비용 증가.
- Skills: LLM 내부에 지식/능력 모듈을 학습·저장하여 필요 시 사용. 장점: 토큰 효율적 전문성 획득, 손쉬운 지식 공유, 모델 주도의 문제 해결. 단점: 초기 단계로 모범 사례와 안전성 확보 과제.
RAG에서 MCP로, 다시 Skills로의 이동은 AI 활용 주체가 사람→모델→에이전트로 옮겨가는 과정이기도 하다. RAG 방식은 사람이 검색과 선별을 담당했고, MCP 방식은 모델이 복잡한 프로토콜로 협력했다. Skills 방식은 에이전트가 두뇌 역할을 하여 대부분의 흐름을 주도하여 사람은 필요한 지식과 환경을 제공하는 정도로 역할이 재편 될 것으로 보인다. 에이전트가 스스로 성장하고, 필요한 도구를 습득하며, 협업자라기보다 자율적인 동료에 가까워지는 비전이 현실에 한 걸음 다가온 셈이다.
Skills가 가져올 미래
Claude Skills의 등장은 단순한 기능 추가 그 이상의 의미를 갖는다. 이는 LLM 에이전트의 활용 방식이 본격적으로 전환되고 있음을 알리는 신호탄이다. 간결하고 개방적인 설계 덕분에 Skills는 MCP 대비 훨씬 빠른 속도로 생태계가 확장될 것이라는 전망이 나온다. 실제로 Anthropic이 공개한 Skills 예제들은 GitHub를 통해 누구나 접근 가능하고, 개발자들은 자신의 업무에 맞는 맞춤형 스킬을 손쉽게 작성하여 공유할 수 있다. 특이한 점은, 이러한 스킬들이 Claude만의 전유물이 아니라는 것이다. Skill 폴더는 그 자체로 하나의 지식 꾸러미이기 때문에, 다른 LLM 기반 에이전트(예: 오픈소스 코덱스 CLI나 구글 Gemini CLI 등)에서도 해당 Markdown 지침을 읽어들여 활용할 수 있다. 다시 말해, Skills는 특정 모델 종속적인 플러그인이 아니라 모델과 무관하게 통용되는 “워크플로우 설명서”의 형태를 띠고 있어 범용성도 기대할 수 있다. 이런 개방성은 Skills 생태계의 캄브리아기 폭발을 예견케 한다. 2025년 한 해 동안 각 기업들이 앞다투어 MCP 구현을 선보였던 흐름이, 이제는 다양한 Skills의 창작과 교류로 대체될지도 모른다.
IT 종사자들에게 이러한 변화는 곧 업무 자동화와 지식 관리의 새로운 국면을 의미한다. 회사의 모범 사례, 운영 절차, 전문 지식 등이 이제는 Skills로 구현되어 실행 가능한 형태의 자산이 될 수 있다. 예를 들어 숙련 개발자의 코드 리뷰 방식, 노련한 데이터 분석가의 통찰이 담긴 절차가 스킬 트리로 누적된다면, 조직 전체의 역량이 한층 평준화되고 AI를 통한 지식 전수와 실무 자동화가 자연스럽게 이뤄질 것이다. 경쟁 우위는 “뛰어난 인재를 얼마나 보유했는가”에서 “얼마나 풍부한 스킬 셋을 축적했는가”로 이동할 가능성도 있다. 나아가 산업 전반적으로도, 더 많은 AI 모델들이 Skills와 유사한 개념을 도입해 자율 에이전트의 방향으로 나아갈 것으로 보인다.
물론 해결해야 할 과제도 남아 있다. 안전하고 통제된 환경 제공은 그 중 하나다. Skills를 통해 LLM이 파워풀한 능력을 얻게 된 만큼, 의도치 않은 결과나 오남용을 막기 위한 안전장치를 마련하는 일이 중요하다. 또한 스킬 관리와 갱신에 대한 새로운 개념도 필요하다. 조직의 프로세스가 바뀌면 관련 스킬도 업데이트해야 하고, 쌓여가는 스킬 중 쓸모없게 된 것은 폐기하거나 개선해야 한다. 이는 마치 소프트웨어의 기술 부채처럼 “스킬 부채” 관리라는 개념을 탄생시킬 수 있다. 이러한 시행착오를 거치겠지만, 방향 자체는 명확해 보인다. LLM을 활용하는 방식이 이제 프롬프트 엔지니어링을 넘어 컨텍스트 엔지니어링으로 진화하고 있는 것이다.
마지막으로 강조하자면, Claude Skills로 대표되는 이 에이전트 중심 혁신은 과거 레거시 시스템의 한계를 뛰어넘는 첫걸음이다. RAG가 보여준 가능성과 MCP가 닦아놓은 길 위에, Skills는 한층 자율적이고 효율적인 AI 동반자의 모습을 그려내고 있다. 앞으로 AI 에이전트는 단순히 인간의 질문에 답하는 것을 넘어, 인간과 함께 문제를 해결하고 지식을 축적해나가는 동력이 될 것이다. 이러한 변화에 발맞춰 기업들은 에이전트의 자동화라는 새로운 패러다임을 적극 받아들이고 활용할 준비를 해야 할 시점이다.
참고 자료
Claude Skills vs MCP vs General LLM Tools/Plugins: What to Use When
Claude Skills are awesome, maybe a bigger deal than MCP
Equipping agents for the real world with agent skills
| [Claude Becomes Your Workflow Tool | Skills Full Analysis](https://www.youtube.com/watch?v=vqLONWXfMsI) |