Quando è stato rilasciato il Model Context Protocol (MCP), la mia prima impressione è stata: "Non si tratta solo di una specifica API unificata". Abbiamo guardato video dimostrativi all'estero e abbiamo immediatamente creato un MOC (proof of concept) all'interno del team. Pensavamo che questo sarebbe diventato il "secondo sistema operativo" per l'IA.
---
Gli MCP sono spesso paragonati all'USB. Questo è certamente vero nel senso che si tratta di una "porta comune attraverso la quale l'IA può gestire liberamente strumenti esterni". Ma quando lo si tocca con mano, è più simile a un "personal computer abilitato all'IA " che a una USB.
In precedenza, ChatGPT e Claude erano, completati all'interno del testo in entrata. Il punto debole principale era l'assenza di accesso al contesto esterno locale o remoto (contesto).
Un'IA priva di memoria ripenserà le cose da zero ogni volta. Un'IA che non conosce il mondo esterno può solo "rigenerarsi" alla fine.
---
Ma gli MCP sono andati oltre. Ora è possibile incorporare un contesto esterno, l'intelligenza artificiale può ora "toccare" il proprio ambiente di lavoro.**
Questo è il tipo di configurazione che ho provato.
- Codice Claude. - BigQuery (aggregazione di dati aziendali) - GitHub (repository del codice sorgente) - Notion (documentazione sulla logica aziendale)
Questi sono collegati tramite MCP, Claude Code per lavorare con ReAct (Reason + Act).
---
L'intelligenza artificiale ha quindi iniziato a lavorare in modo autonomo. Ha letto lo schema da BigQuery, Facendo riferimento alla logica di Notion, codice su GitHub per elaborare un piano di modifica.
Quello che mi ha sorpreso è che da lì, per 15-20 minuti, sono stato completamente fuori di me e l'IA ha continuato a funzionare. Stavo aggiornando il fronte in React mentre ripetevo Try and Error.
---
È stata la prima volta che ho avuto la sensazione che l'intelligenza artificiale avesse un proprio "ciclo di pensiero". Non si limita a seguire le specifiche create dagli esseri umani, combina anche le informazioni esterne per prendere le proprie decisioni.
Non stava più "generando" ma "agendo". L'IA è uscita dal suo modello appreso, È stato il momento in cui ha raggiunto il mondo.
---
Rimangono ancora problemi di memoria e di apprendimento a lungo termine. Tuttavia, MCP+ReAct ha mostrato i primi segni di "autonomia".
L'intelligenza artificiale accede al contesto globale e, pensare, testare e muoversi lontano dalle proprie mani. È stato il momento in cui gli esseri umani hanno visto per la prima volta un "codice che pensa da solo".