Deepseek Thinker Mcp 服务器
一个MCP提供者Deepseek为MCP启用的AI客户端提供推理内容,例如Claude Desktop。支持通过Deepseek API服务或本地Ollama服务器访问Deepseek的CoT。
概览
什么是 Deepseek Thinker MCP?
Deepseek Thinker MCP 是一个强大的提供者,旨在增强 MCP 启用的 AI 客户端(如 Claude Desktop)的推理能力。它通过 Deepseek API 服务或本地 Ollama 服务器提供无缝访问 Deepseek 的思维链(CoT)。这种集成使开发者和用户能够在他们的应用程序中利用先进的推理和决策过程。
Deepseek Thinker MCP 的特点
- MCP 兼容性:专为 MCP 启用的 AI 客户端设计,确保最佳性能和集成。
- 访问 Deepseek API:用户可以轻松连接到 Deepseek 的广泛 API,启用多种功能。
- 本地服务器支持:提供与本地 Ollama 服务器操作的灵活性,使用户对其数据和处理有更多控制。
- 增强推理:利用先进算法提高 AI 应用程序的推理能力,使其更高效和有效。
- 用户友好的界面:以可用性为重点设计,使开发者易于实现和利用这些功能。
如何使用 Deepseek Thinker MCP
-
安装:首先在您的开发环境中安装 Deepseek Thinker MCP 包。按照文档中提供的安装说明进行操作。
-
配置:配置连接设置,以连接 Deepseek API 或您的本地 Ollama 服务器。确保所有必要的凭据和端点正确设置。
-
集成:将 Deepseek Thinker MCP 集成到您的 AI 应用程序中。利用提供的 API 访问推理能力,提升应用程序的性能。
-
测试:进行全面测试,以确保集成按预期工作。验证推理输出并根据需要进行调整。
-
部署:测试完成后,部署您的应用程序,集成 Deepseek Thinker MCP 功能。
常见问题解答
Q1: 什么是 MCP?
A1: MCP 代表模型-客户端协议,这是一个框架,允许 AI 模型与客户端应用程序有效地通信和交互。
Q2: 我可以在没有本地服务器的情况下使用 Deepseek Thinker MCP 吗?
A2: 是的,您可以通过直接连接 Deepseek API 来使用 Deepseek Thinker MCP,而无需本地服务器。
Q3: 什么类型的应用程序可以受益于 Deepseek Thinker MCP?
A3: 任何需要高级推理能力的应用程序,如聊天机器人、虚拟助手和决策系统,都可以受益于 Deepseek Thinker MCP。
Q4: 使用 Deepseek Thinker MCP 的开发者是否有支持可用?
A4: 是的,提供全面的文档和社区支持,以帮助开发者有效利用 Deepseek Thinker MCP。
Q5: 我如何为 Deepseek Thinker MCP 项目做贡献?
A5: 欢迎贡献!您可以分叉代码库,进行更改,并提交拉取请求以供审核。
详情
Deepseek Thinker MCP Server
A MCP (Model Context Protocol) provider Deepseek reasoning content to MCP-enabled AI Clients, like Claude Desktop. Supports access to Deepseek's thought processes from the Deepseek API service or from a local Ollama server.
<a href="https://glama.ai/mcp/servers/d7spzsfuwz"><img width="380" height="200" src="https://glama.ai/mcp/servers/d7spzsfuwz/badge" alt="Deepseek Thinker Server MCP server" /></a>
Core Features
-
🤖 Dual Mode Support
- OpenAI API mode support
- Ollama local mode support
-
🎯 Focused Reasoning
- Captures Deepseek's thinking process
- Provides reasoning output
Available Tools
get-deepseek-thinker
- Description: Perform reasoning using the Deepseek model
- Input Parameters:
originPrompt
(string): User's original prompt
- Returns: Structured text response containing the reasoning process
Environment Configuration
OpenAI API Mode
Set the following environment variables:
API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>
Ollama Mode
Set the following environment variable:
USE_OLLAMA=true
Usage
Integration with AI Client, like Claude Desktop
Add the following configuration to your claude_desktop_config.json
:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Using Ollama Mode
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}
Local Server Configuration
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Development Setup
### Install dependencies
npm install
### Build project
npm run build
### Run service
node build/index.js
FAQ
Response like this: "MCP error -32001: Request timed out"
This error occurs when the Deepseek API response is too slow or when the reasoning content output is too long, causing the MCP server to timeout.
Tech Stack
- TypeScript
- @modelcontextprotocol/sdk
- OpenAI API
- Ollama
- Zod (parameter validation)
License
This project is licensed under the MIT License. See the LICENSE file for details.
Server配置
{
"mcpServers": {
"deepseek-thinker-mcp": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--ruixingshi--deepseek-thinker-mcp--deepseek-thinker-mcp",
"node ./build/index.js"
],
"env": {
"API_KEY": "api-key",
"BASE_URL": "base-url"
}
}
}
}