MCP ha imparato a toccare il mondo

Lingua originale: 🇯🇵 Giapponese

Quando è stato rilasciato il Model Context Protocol (MCP), la mia prima impressione è stata: "Non si tratta solo di una specifica API unificata". Abbiamo guardato video dimostrativi all'estero e abbiamo immediatamente creato un MOC (proof of concept) all'interno del team. Pensavamo che questo sarebbe diventato il "secondo sistema operativo" per l'IA.

---

Gli MCP sono spesso paragonati all'USB. Questo è certamente vero nel senso che si tratta di una "porta comune attraverso la quale l'IA può gestire liberamente strumenti esterni". Ma quando lo si tocca con mano, è più simile a un "personal computer abilitato all'IA " che a una USB.

In precedenza, ChatGPT e Claude erano, completati all'interno del testo in entrata. Il punto debole principale era l'assenza di accesso al contesto esterno locale o remoto (contesto).

Un'IA priva di memoria ripenserà le cose da zero ogni volta. Un'IA che non conosce il mondo esterno può solo "rigenerarsi" alla fine.

---

Ma gli MCP sono andati oltre. Ora è possibile incorporare un contesto esterno, l'intelligenza artificiale può ora "toccare" il proprio ambiente di lavoro.**

Questo è il tipo di configurazione che ho provato.

- Codice Claude. - BigQuery (aggregazione di dati aziendali) - GitHub (repository del codice sorgente) - Notion (documentazione sulla logica aziendale)

Questi sono collegati tramite MCP, Claude Code per lavorare con ReAct (Reason + Act).

---

L'intelligenza artificiale ha quindi iniziato a lavorare in modo autonomo. Ha letto lo schema da BigQuery, Facendo riferimento alla logica di Notion, codice su GitHub per elaborare un piano di modifica.

Quello che mi ha sorpreso è che da lì, per 15-20 minuti, sono stato completamente fuori di me e l'IA ha continuato a funzionare. Stavo aggiornando il fronte in React mentre ripetevo Try and Error.

---

È stata la prima volta che ho avuto la sensazione che l'intelligenza artificiale avesse un proprio "ciclo di pensiero". Non si limita a seguire le specifiche create dagli esseri umani, combina anche le informazioni esterne per prendere le proprie decisioni.

Non stava più "generando" ma "agendo". L'IA è uscita dal suo modello appreso, È stato il momento in cui ha raggiunto il mondo.

---

Rimangono ancora problemi di memoria e di apprendimento a lungo termine. Tuttavia, MCP+ReAct ha mostrato i primi segni di "autonomia".

L'intelligenza artificiale accede al contesto globale e, pensare, testare e muoversi lontano dalle proprie mani. È stato il momento in cui gli esseri umani hanno visto per la prima volta un "codice che pensa da solo".

Iscriviti alla nostra newsletter per ricevere nuovi saggi e aggiornamenti sugli eventi.

Back to Essays

English · 中文 · 한국어 · Español · Français · Deutsch · Italiano · Português · Português (Brasil) · Nederlands · Русский · Türkçe · Bahasa Indonesia · Polski · Ελληνικά · Български · Čeština · Dansk · Eesti · Suomi · Magyar · Lietuvių · Latviešu · Norsk Bokmål · Română · Slovenčina · Slovenščina · Svenska · Українська