OSCHINA
Dive 是開源的本地 MCP Server 終端,支持使用 MCP 調(diào)用各種其他 LLMs 工具,比如啟動(dòng) Dive 后再打開 Blender,搭配 BlenderMCP,就能連接 Blender 用大模型幫助建模。
Dive 提供了 macOS、Windows 和 Linux 版本,目前是安裝 MCP 服務(wù)器的最簡單方法。
此外,Dive 還提供實(shí)時(shí)工具調(diào)用嵌入和高效系統(tǒng)集成,旨在為開發(fā)者提供更靈活、更高效的開發(fā)工具。

特性
通用 LLM 支持:兼容 ChatGPT、Anthropic、Ollama 和 OpenAI 兼容模型
跨平臺(tái):適用于 Windows、MacOS 和 Linux
模型上下文協(xié)議:在 stdio 和 SSE 模式下實(shí)現(xiàn)無縫 MCP AI 代理集成
多語言支持:繁體中文、簡體中文、英文、西班牙文,更多支持即將推出
高級(jí) API 管理:多個(gè) API 密鑰和模型切換支持
開源地址: https://github.com/OpenAgentPlatform/Dive
,讓開發(fā)者可以借助 AI 助手直接訪問代碼倉庫,讀取文件內(nèi)容、查看 PR 變更、理解 Issue 描述,甚至直接操作代碼管理任務(wù),比如創(chuàng)建 PR、合并分支、發(fā)布版本等。
簡單來說,Gitee MCP Server 讓 AI 不再是「代碼的旁觀者」,真正成為了參與軟件開發(fā)過程的智能助手。
開源地址:
https://gitee.com/oschina/mcp-gitee
4 月 11 日 19:00,與真正在寫代碼、做架構(gòu)、趟過坑的實(shí)踐者,聊一聊這個(gè)突然走紅的開源大模型上下文協(xié)議——MCP。
↓一鍵預(yù)約直播↓

↓分享、在看與點(diǎn)贊~Orz
熱門跟貼