Anthropic annuncia un protocollo open Source per connettere un’applicazione LLM in modo standardizzato a origini dati “contestuali”, file, risposte API, ecc.
Anthropic sta lanciando uno standard open Source chiamato MCP (per Multi Context Protocol) che consente agli LLM di accedere ai dati di contesto. Un SDK consente agli sviluppatori di creare server MCP che fungono da connettori a varie origini dati: file di computer, database, file di registro, ambiente di sviluppo, risposte API.
Attraverso questi server MCP, l’applicazione LLM (Claude o altro) è in grado di connettersi alle risorse per leggere informazioni e sottoscrivere aggiornamenti. Anthropic raccomanda naturalmente di garantire che venga implementato e controllato un accesso adeguato alle risorse.
La soluzione potrebbe consentire, ad esempio, di interrogare un PDF presente sul computer dalla chat o di fornire il codice Github senza dover fare copia e incolla. In quanto tale, è sulla stessa linea dello strumento di controllo informatico presentato dalla stessa Anthropic in ottobre.
“Che tu stia costruendo un IDE basato sull’intelligenza artificiale, migliorando un’interfaccia di chat o creando flussi di lavoro AI personalizzati, MCP fornisce un modo standardizzato per connettere gli LLM al contesto di cui hanno bisogno”, spiega Anthropic nella sua documentazione.
Per facilitare gli sviluppatori, l’azienda fornisce server MCP precostruiti per varie applicazioni – Google Drive, Slack, GitHub, Git, Postgres e Puppeteer – oltre a un repository. Annuncia inoltre il supporto del server MCP per le applicazioni desktop Claude. Resta da vedere se OpenAI, Google e altri adotteranno lo standard…