OSCHINA
大型語言模型(LLMs)強大但受限于上下文。它們:
→ 缺乏對業(yè)務(wù)、數(shù)據(jù)和工作流程的感知
→ 獨立運行,容易產(chǎn)生通用、不相關(guān)的回應(yīng)
→ 無法訪問實時外部知識
雖然RAG(檢索增強生成)和Agentic AI(代理式 AI)為增強 AI 檢索能力與工具交互能力提供了方向,但它們的實現(xiàn)目前依然零散,常是定制開發(fā)、難以規(guī)?;慕鉀Q方案。
什么是 Model Context Protocol(MCP)?
Anthropic 推出的 MCP(模型上下文協(xié)議),旨在標(biāo)準(zhǔn)化 RAG 和代理式 AI 的實現(xiàn)方式,實現(xiàn) LLM 應(yīng)用的:
? 可擴(kuò)展性
? 穩(wěn)定性
? 深度上下文感知
MCP 是如何工作的?
1. 主機(jī)環(huán)境(Host Environment
LLM 應(yīng)用所運行的基礎(chǔ)設(shè)施,包括:
實體機(jī)器 – 工作站、本地服務(wù)器
虛擬機(jī) – 云端 VM、遠(yuǎn)程服務(wù)器
容器 – Docker、Kubernetes
2. 主機(jī)應(yīng)用(Host)
LLM 驅(qū)動的實際應(yīng)用,比如:
聊天機(jī)器人、搜索助手
工作流自動化 AI 代理
帶代碼補全和調(diào)試功能的 IDE
3. MCP 客戶端(Clients)
MCP 客戶端運行在主機(jī)應(yīng)用內(nèi),向 MCP 服務(wù)器請求外部數(shù)據(jù)或操作指令。
4. MCP 服務(wù)器(Server)
MCP 服務(wù)器在 LLM 和外部知識源之間架起一座橋梁,連接:
各類 API – CRM、ERP、企業(yè)工具
數(shù)據(jù)庫 – 業(yè)務(wù)數(shù)據(jù)庫、數(shù)據(jù)倉庫
代碼倉庫與本地文件
實時事件流 – SSE、WebSocket
MCP 不止用于數(shù)據(jù)檢索,還支持執(zhí)行能力:
修改配置
運行腳本
觸發(fā)自動化流程
5. 傳輸層(Transport Layer)
MCP 通過結(jié)構(gòu)化通信協(xié)議(如JSON-RPC 2.0)進(jìn)行數(shù)據(jù)交換,支持:
標(biāo)準(zhǔn)輸入輸出(Stdio)
服務(wù)器推送事件(SSE)
可自定義的實現(xiàn)(根據(jù)具體需求)
MCP 將如何改變 AI?
MCP 代表了 AI 演進(jìn)的關(guān)鍵一環(huán),它為核心 AI 模式提供標(biāo)準(zhǔn)協(xié)議:
?RAG– 從外部檢索知識的模式
?Agentic AI– 讓 AI 能夠與工具交互的模式
?MCP– 將這兩者規(guī)范化、結(jié)構(gòu)化的實現(xiàn)協(xié)議
,讓開發(fā)者可以借助 AI 助手直接訪問代碼倉庫,讀取文件內(nèi)容、查看 PR 變更、理解 Issue 描述,甚至直接操作代碼管理任務(wù),比如創(chuàng)建 PR、合并分支、發(fā)布版本等。
簡單來說,Gitee MCP Server 讓 AI 不再是「代碼的旁觀者」,真正成為了參與軟件開發(fā)過程的智能助手。
開源地址:
https://gitee.com/oschina/mcp-gitee
↓更多精彩內(nèi)容,歡迎預(yù)約直播↓
熱門跟貼