OSCHINA

打開網(wǎng)易新聞 查看精彩圖片

大型語言模型(LLMs)強大但受限于上下文。它們:

→ 缺乏對業(yè)務(wù)、數(shù)據(jù)和工作流程的感知
→ 獨立運行,容易產(chǎn)生通用、不相關(guān)的回應(yīng)
→ 無法訪問實時外部知識

雖然RAG(檢索增強生成)和Agentic AI(代理式 AI)為增強 AI 檢索能力與工具交互能力提供了方向,但它們的實現(xiàn)目前依然零散,常是定制開發(fā)、難以規(guī)?;慕鉀Q方案。

什么是 Model Context Protocol(MCP)?

Anthropic 推出的 MCP(模型上下文協(xié)議),旨在標(biāo)準(zhǔn)化 RAG 和代理式 AI 的實現(xiàn)方式,實現(xiàn) LLM 應(yīng)用的:

? 可擴(kuò)展性
? 穩(wěn)定性
? 深度上下文感知

MCP 是如何工作的?
1. 主機(jī)環(huán)境(Host Environment

LLM 應(yīng)用所運行的基礎(chǔ)設(shè)施,包括:

  • 實體機(jī)器 – 工作站、本地服務(wù)器

  • 虛擬機(jī) – 云端 VM、遠(yuǎn)程服務(wù)器

  • 容器 – Docker、Kubernetes


2. 主機(jī)應(yīng)用(Host)

LLM 驅(qū)動的實際應(yīng)用,比如:

  • 聊天機(jī)器人、搜索助手

  • 工作流自動化 AI 代理

  • 帶代碼補全和調(diào)試功能的 IDE


3. MCP 客戶端(Clients)

MCP 客戶端運行在主機(jī)應(yīng)用內(nèi),向 MCP 服務(wù)器請求外部數(shù)據(jù)或操作指令。

4. MCP 服務(wù)器(Server)

MCP 服務(wù)器在 LLM 和外部知識源之間架起一座橋梁,連接:

  • 各類 API – CRM、ERP、企業(yè)工具

  • 數(shù)據(jù)庫 – 業(yè)務(wù)數(shù)據(jù)庫、數(shù)據(jù)倉庫

  • 代碼倉庫與本地文件

  • 實時事件流 – SSE、WebSocket

MCP 不止用于數(shù)據(jù)檢索,還支持執(zhí)行能力

  • 修改配置

  • 運行腳本

  • 觸發(fā)自動化流程


5. 傳輸層(Transport Layer)

MCP 通過結(jié)構(gòu)化通信協(xié)議(如JSON-RPC 2.0)進(jìn)行數(shù)據(jù)交換,支持:

  • 標(biāo)準(zhǔn)輸入輸出(Stdio)

  • 服務(wù)器推送事件(SSE)

  • 可自定義的實現(xiàn)(根據(jù)具體需求)


MCP 將如何改變 AI?

MCP 代表了 AI 演進(jìn)的關(guān)鍵一環(huán),它為核心 AI 模式提供標(biāo)準(zhǔn)協(xié)議:

?RAG– 從外部檢索知識的模式
?Agentic AI– 讓 AI 能夠與工具交互的模式
?MCP– 將這兩者規(guī)范化、結(jié)構(gòu)化的實現(xiàn)協(xié)議

,讓開發(fā)者可以借助 AI 助手直接訪問代碼倉庫,讀取文件內(nèi)容、查看 PR 變更、理解 Issue 描述,甚至直接操作代碼管理任務(wù),比如創(chuàng)建 PR、合并分支、發(fā)布版本等。

簡單來說,Gitee MCP Server 讓 AI 不再是「代碼的旁觀者」,真正成為了參與軟件開發(fā)過程的智能助手。

開源地址
https://gitee.com/oschina/mcp-gitee

↓更多精彩內(nèi)容,歡迎預(yù)約直播↓