MCP는 세상을 만지는 법을 배웠다

원본 언어: 🇯🇵 일본어

MCP(Model Context Protocol)가 나왔을 때, 첫인상은 '이건 단순한 API 통일 규격이 아니구나'였다. 해외 데모 영상을 보고 바로 팀 내에서 MOC(개념증명)를 만들었다. 이것은 분명 AI의 '제2의 OS'가 될 것이라고 생각했다.

---

흔히 MCP를 USB에 비유한다. 'AI가 외부 도구를 자유롭게 다룰 수 있는 공용 포트'라는 의미에서는 맞다. 하지만 실제로 만져보면 USB라기보다는 "AI가 사용할 수 있는 개인용 컴퓨터"에 가깝다.

지금까지의 ChatGPT나 Claude는, 입력된 텍스트 내부에서 완성되었다. 가장 큰 약점은 로컬이나 원격의 외부 컨텍스트(context)에 접근할 수 없다는 점이었다.

메모리가 없는 AI는 매번 처음부터 다시 생각해야 한다. 외부 세계를 모르는 AI는 결국 '재생성'밖에 할 수 없다.

---

하지만 MCP는 이를 넘어섰다. 외부 컨텍스트의 도입이 가능해졌다, AI가 자신의 작업 환경 그 자체에 "접촉"할 수 있게 되었다..

내가 시도한 구성은 이런 식이다.

- Claude Code - BigQuery (업무 데이터 집계) - GitHub (소스 코드 저장소) - Notion** (비즈니스 로직 문서)

이를 MCP를 통해 연결했다, Claude Code가 ReAct(Reason + Act)로 동작하도록 했다.

---

그러자 AI가 자율적으로 움직이기 시작했다. BigQuery에서 스키마를 읽고 Notion에서 로직을 참조하고 GitHub의 코드를 보면서 개선안을 제시한다.

내가 놀란 것은 거기서부터 15~20분 동안 완전히 내 손을 떠나서 AI가 계속 움직였다는 것이다. Try and Error를 반복하면서 React로 프론트엔진을 업데이트하고 있었다.

---

이때 처음으로 AI가 '자기 생각의 고리'를 가지고 있다는 것을 느꼈다. 인간이 만든 사양을 따라가는 것이 아니다, 외부 정보를 조합하여 스스로 판단하고 있다.

그것은 더 이상 '생성'이 아닌 '행동'이었다. AI가 학습된 모델에서 벗어나 세상에 손을 내미는 순간이었다.

---

메모리와 장기 학습의 과제는 여전히 남아있다. 하지만 MCP+ReAct는 '자율'의 첫 모습을 보여줬다.

AI가 세상의 맥락에 접근하고, 내 손을 떠나서 생각하고, 실험하고, 움직인다. 인간이 처음으로 '나 대신 생각하는 코드'를 본 순간이었다.

뉴스레터를 구독하고 새 에세이와 이벤트 소식을 받아보세요.

Back to Essays

English · 中文 · 한국어 · Español · Français · Deutsch · Italiano · Português · Português (Brasil) · Nederlands · Русский · Türkçe · Bahasa Indonesia · Polski · Ελληνικά · Български · Čeština · Dansk · Eesti · Suomi · Magyar · Lietuvių · Latviešu · Norsk Bokmål · Română · Slovenčina · Slovenščina · Svenska · Українська