MCP(Model Context Protocol)が出た時、 最初の印象は「これはただのAPI統一仕様じゃないな」だった。 海外のデモ動画を見て、すぐにチーム内でMOC(概念実証)を作った。 これは間違いなくAIの"第二のOS"になると思った。
---
よくMCPはUSBに例えられる。 確かに「AIが外部ツールを自由に扱える共通ポート」という意味では正しい。 でも実際に触ってみると、USBというより"AIが使えるパーソナルコンピューター"に近い。
これまでのChatGPTやClaudeは、 入力されたテキストの内側で完結していた。 一番の弱点はローカルやリモートの外部文脈(context)にアクセスできないことだった。
メモリを持たないAIは、毎回ゼロから考え直す。 外の世界を知らないAIは、結局「再生成」しかできない。
---
でもMCPはそこを越えてきた。 外部コンテキストの取り込みが可能になり、 AIが自分の作業環境そのものに"触れられる"ようになった。
僕が試したのはこういう構成だ。
- Claude Code - BigQuery(業務データの集計) - GitHub(ソースコードリポジトリ) - Notion(ビジネスロジックのドキュメント)
これらをMCP経由でつなぎ、 Claude CodeがReAct(Reason + Act)で動くようにした。
---
すると、AIが自律的に動き始めた。 BigQueryからスキーマを読み、 Notionからロジックを参照し、 GitHubのコードを見ながら改修案を出す。
僕が驚いたのは、そこから15〜20分間、完全に自分の手を離れてAIが動き続けたことだ。 Try and Errorを繰り返しながら、Reactでフロントを更新していた。
---
この時、初めてAIが"自分の思考ループ"を持ったと感じた。 人間が作った仕様をなぞるだけではなく、 外部情報を組み合わせて自己判断している。
それはもはや「生成」ではなく「行動」だった。 AIが学習済みモデルから抜け出し、 世界に手を伸ばした瞬間だった。
---
メモリや長期学習の課題はまだ残っている。 でも、MCP+ReActは"自律"の最初の形を見せた。
AIが世界の文脈にアクセスし、 自分の手を離れて考え、試し、動く。 人間が初めて「自分の代わりに考えるコード」を見た瞬間だった。