Deepseek 思考者 Mcp 伺服器
一個MCP提供者Deepseek為MCP啟用的AI客戶端提供推理內容,例如Claude Desktop。支持通過Deepseek API服務或本地Ollama伺服器訪問Deepseek的CoT。
概覽
Deepseek Thinker MCP 是什麼?
Deepseek Thinker MCP 是一個強大的提供者,旨在增強 MCP 啟用的 AI 客戶端(如 Claude Desktop)的推理能力。它通過 Deepseek API 服務或本地 Ollama 伺服器提供無縫訪問 Deepseek 的思維鏈(CoT)。這種集成使開發者和用戶能夠在其應用程序中利用先進的推理和決策過程。
Deepseek Thinker MCP 的特點
- MCP 兼容性:專為 MCP 啟用的 AI 客戶端設計,確保最佳性能和集成。
- 訪問 Deepseek API:用戶可以輕鬆連接到 Deepseek 的廣泛 API,啟用多種功能。
- 本地伺服器支持:提供與本地 Ollama 伺服器運行的靈活性,使用戶對其數據和處理有更多控制。
- 增強推理:利用先進算法提高 AI 應用程序的推理能力,使其更高效和有效。
- 用戶友好界面:以可用性為重點設計,使開發者能夠輕鬆實施和利用這些功能。
如何使用 Deepseek Thinker MCP
-
安裝:首先在您的開發環境中安裝 Deepseek Thinker MCP 套件。按照文檔中提供的安裝說明進行操作。
-
配置:配置連接設置以連接到 Deepseek API 或您的本地 Ollama 伺服器。確保所有必要的憑證和端點正確設置。
-
集成:將 Deepseek Thinker MCP 集成到您的 AI 應用程序中。利用提供的 API 訪問推理能力,提升應用程序的性能。
-
測試:進行徹底測試,以確保集成按預期工作。驗證推理輸出並根據需要進行調整。
-
部署:測試完成後,部署您的應用程序,並集成 Deepseek Thinker MCP 功能。
常見問題解答
問題 1:什麼是 MCP?
回答 1:MCP 代表模型-客戶端協議,這是一個框架,允許 AI 模型有效地與客戶端應用程序進行通信和互動。
問題 2:我可以在沒有本地伺服器的情況下使用 Deepseek Thinker MCP 嗎?
回答 2:是的,您可以通過直接連接到 Deepseek API 使用 Deepseek Thinker MCP,而無需本地伺服器。
問題 3:哪些類型的應用程序可以從 Deepseek Thinker MCP 中受益?
回答 3:任何需要先進推理能力的應用程序,如聊天機器人、虛擬助手和決策系統,都可以從 Deepseek Thinker MCP 中受益。
問題 4:使用 Deepseek Thinker MCP 的開發者是否有支持可用?
回答 4:是的,提供全面的文檔和社區支持,以幫助開發者有效利用 Deepseek Thinker MCP。
問題 5:我如何能為 Deepseek Thinker MCP 項目做出貢獻?
回答 5:歡迎貢獻!您可以分叉該存儲庫,進行更改,並提交拉取請求以供審核。
詳細
Deepseek Thinker MCP Server
A MCP (Model Context Protocol) provider Deepseek reasoning content to MCP-enabled AI Clients, like Claude Desktop. Supports access to Deepseek's thought processes from the Deepseek API service or from a local Ollama server.
<a href="https://glama.ai/mcp/servers/d7spzsfuwz"><img width="380" height="200" src="https://glama.ai/mcp/servers/d7spzsfuwz/badge" alt="Deepseek Thinker Server MCP server" /></a>
Core Features
-
🤖 Dual Mode Support
- OpenAI API mode support
- Ollama local mode support
-
🎯 Focused Reasoning
- Captures Deepseek's thinking process
- Provides reasoning output
Available Tools
get-deepseek-thinker
- Description: Perform reasoning using the Deepseek model
- Input Parameters:
originPrompt
(string): User's original prompt
- Returns: Structured text response containing the reasoning process
Environment Configuration
OpenAI API Mode
Set the following environment variables:
API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>
Ollama Mode
Set the following environment variable:
USE_OLLAMA=true
Usage
Integration with AI Client, like Claude Desktop
Add the following configuration to your claude_desktop_config.json
:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Using Ollama Mode
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}
Local Server Configuration
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Development Setup
### Install dependencies
npm install
### Build project
npm run build
### Run service
node build/index.js
FAQ
Response like this: "MCP error -32001: Request timed out"
This error occurs when the Deepseek API response is too slow or when the reasoning content output is too long, causing the MCP server to timeout.
Tech Stack
- TypeScript
- @modelcontextprotocol/sdk
- OpenAI API
- Ollama
- Zod (parameter validation)
License
This project is licensed under the MIT License. See the LICENSE file for details.
伺服器配置
{
"mcpServers": {
"deepseek-thinker-mcp": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--ruixingshi--deepseek-thinker-mcp--deepseek-thinker-mcp",
"node ./build/index.js"
],
"env": {
"API_KEY": "api-key",
"BASE_URL": "base-url"
}
}
}
}