Kiedy został wydany Model Context Protocol (MCP), Moje pierwsze wrażenie było takie: "to nie jest tylko ujednolicona specyfikacja API". Obejrzeliśmy filmy demonstracyjne za granicą i natychmiast stworzyliśmy MOC (proof of concept) w zespole. Pomyśleliśmy, że z pewnością stanie się to "drugim systemem operacyjnym" dla sztucznej inteligencji.
---
MCP są często porównywane do USB. Jest to z pewnością prawda w tym sensie, że jest to "wspólny port, przez który AI może swobodnie obsługiwać zewnętrzne narzędzia". Ale kiedy faktycznie go dotkniesz, bardziej przypomina "komputer osobisty z obsługą AI " niż USB.
Wcześniej ChatGPT i Claude były, uzupełniane wewnątrz tekstu wejściowego. Główną słabością był brak dostępu do lokalnego lub zdalnego kontekstu zewnętrznego.
Sztuczna inteligencja bez pamięci będzie za każdym razem myśleć od nowa. Sztuczna inteligencja, która nie zna świata zewnętrznego, może się tylko "zregenerować".
---
MCP wyszły jednak poza te ramy. Można teraz włączyć kontekst zewnętrzny, AI może teraz "dotknąć" własnego środowiska pracy.**
Taką konfigurację wypróbowałem.
- Kod Claude. - BigQuery (agregacja danych biznesowych) - GitHub (repozytorium kodu źródłowego) - Notion (dokumentacja logiki biznesowej)
Są one połączone przez MCP, Claude Code do pracy z ReAct (Reason + Act).
---
Następnie sztuczna inteligencja rozpoczęła autonomiczną pracę. Odczytała schemat z BigQuery, Odwołując się do logiki z Notion, kod na GitHub, aby opracować plan modyfikacji.
Zaskoczyło mnie to, że od tego momentu przez 15-20 minut sztuczna inteligencja całkowicie wymykała mi się z rąk. Aktualizowałem front w React, powtarzając Try i Error.
---
Po raz pierwszy poczułem, że sztuczna inteligencja ma własną "pętlę myślową". Nie tylko podąża za specyfikacjami stworzonymi przez ludzi, Łączy również informacje zewnętrzne, aby podejmować własne decyzje.
Nie było to już "generowanie", ale "działanie". Sztuczna inteligencja wyrwała się ze swojego wyuczonego modelu, To był moment, w którym wyciągnęła rękę do świata.
---
Wyzwania związane z pamięcią i uczeniem się długoterminowym wciąż pozostają aktualne. MCP+ReAct wykazuje jednak pierwsze oznaki "autonomii".
AI uzyskuje dostęp do globalnego kontekstu i myśli, testuje i porusza się z dala od własnych rąk. Był to moment, w którym ludzie po raz pierwszy zobaczyli "kod, który myśli sam za siebie".