डीपसीक थिंकर एमसीपी सर्वर
एक MCP प्रदाता Deepseek तर्क सामग्री को MCP-सक्षम AI क्लाइंट्स, जैसे कि Claude Desktop, के लिए प्रदान करता है। यह Deepseek API सेवा या एक स्थानीय Ollama सर्वर से Deepseek के CoT तक पहुँच का समर्थन करता है।
सारांश
Deepseek Thinker MCP क्या है?
Deepseek Thinker MCP एक शक्तिशाली प्रदाता है जिसे MCP-सक्षम AI क्लाइंट्स, जैसे कि Claude Desktop, के लिए तर्क क्षमताओं को बढ़ाने के लिए डिज़ाइन किया गया है। यह Deepseek API सेवा या एक स्थानीय Ollama सर्वर के माध्यम से Deepseek के Chain of Thought (CoT) तक सहज पहुंच की सुविधा प्रदान करता है। यह एकीकरण डेवलपर्स और उपयोगकर्ताओं को उनके अनुप्रयोगों में उन्नत तर्क और निर्णय लेने की प्रक्रियाओं का लाभ उठाने की अनुमति देता है।
Deepseek Thinker MCP की विशेषताएँ
- MCP संगतता: MCP-सक्षम AI क्लाइंट्स के लिए विशेष रूप से डिज़ाइन किया गया, जिससे प्रदर्शन और एकीकरण में अनुकूलता सुनिश्चित होती है।
- Deepseek API तक पहुंच: उपयोगकर्ता आसानी से Deepseek के व्यापक API से जुड़ सकते हैं, जिससे विभिन्न कार्यक्षमताओं की सुविधा मिलती है।
- स्थानीय सर्वर समर्थन: एक स्थानीय Ollama सर्वर के साथ काम करने की लचीलापन प्रदान करता है, जिससे उपयोगकर्ताओं को अपने डेटा और प्रोसेसिंग पर अधिक नियंत्रण मिलता है।
- उन्नत तर्क: AI अनुप्रयोगों की तर्क क्षमताओं में सुधार करने के लिए उन्नत एल्गोरिदम का उपयोग करता है, जिससे वे अधिक कुशल और प्रभावी बनते हैं।
- उपयोगकर्ता-अनुकूल इंटरफेस: उपयोगिता पर ध्यान केंद्रित करते हुए डिज़ाइन किया गया, जिससे डेवलपर्स के लिए सुविधाओं को लागू करना और उपयोग करना आसान हो जाता है।
Deepseek Thinker MCP का उपयोग कैसे करें
-
स्थापना: अपने विकास वातावरण में Deepseek Thinker MCP पैकेज स्थापित करने से शुरू करें। दस्तावेज़ में दिए गए स्थापना निर्देशों का पालन करें।
-
कॉन्फ़िगरेशन: Deepseek API या अपने स्थानीय Ollama सर्वर के लिए कनेक्शन सेटिंग्स को कॉन्फ़िगर करें। सुनिश्चित करें कि सभी आवश्यक क्रेडेंशियल और एंडपॉइंट सही तरीके से सेट किए गए हैं।
-
एकीकरण: अपने AI अनुप्रयोग में Deepseek Thinker MCP को एकीकृत करें। तर्क क्षमताओं तक पहुंच प्राप्त करने और अपने अनुप्रयोग के प्रदर्शन को बढ़ाने के लिए प्रदान किए गए APIs का उपयोग करें।
-
परीक्षण: सुनिश्चित करने के लिए व्यापक परीक्षण करें कि एकीकरण अपेक्षित रूप से काम करता है। तर्क आउटपुट को मान्य करें और आवश्यकतानुसार समायोजन करें।
-
तैनाती: एक बार परीक्षण पूरा हो जाने के बाद, एकीकृत Deepseek Thinker MCP कार्यक्षमता के साथ अपने अनुप्रयोग को तैनात करें।
अक्सर पूछे जाने वाले प्रश्न
प्रश्न 1: MCP क्या है?
उत्तर 1: MCP का अर्थ है Model-Client Protocol, जो एक ढांचा है जो AI मॉडलों को क्लाइंट अनुप्रयोगों के साथ प्रभावी ढंग से संवाद और बातचीत करने की अनुमति देता है।
प्रश्न 2: क्या मैं बिना स्थानीय सर्वर के Deepseek Thinker MCP का उपयोग कर सकता हूँ?
उत्तर 2: हाँ, आप बिना स्थानीय सर्वर की आवश्यकता के सीधे Deepseek API से जुड़कर Deepseek Thinker MCP का उपयोग कर सकते हैं।
प्रश्न 3: कौन से प्रकार के अनुप्रयोग Deepseek Thinker MCP से लाभ उठा सकते हैं?
उत्तर 3: कोई भी अनुप्रयोग जिसे उन्नत तर्क क्षमताओं की आवश्यकता होती है, जैसे कि चैटबॉट, वर्चुअल असिस्टेंट, और निर्णय लेने की प्रणालियाँ, Deepseek Thinker MCP से लाभ उठा सकते हैं।
प्रश्न 4: क्या Deepseek Thinker MCP का उपयोग करने वाले डेवलपर्स के लिए कोई समर्थन उपलब्ध है?
उत्तर 4: हाँ, डेवलपर्स को Deepseek Thinker MCP का प्रभावी ढंग से उपयोग करने में सहायता के लिए व्यापक दस्तावेज़ और सामुदायिक समर्थन उपलब्ध है।
प्रश्न 5: मैं Deepseek Thinker MCP परियोजना में कैसे योगदान कर सकता हूँ?
उत्तर 5: योगदान का स्वागत है! आप रिपॉजिटरी को फोर्क कर सकते हैं, अपने परिवर्तन कर सकते हैं, और समीक्षा के लिए एक पुल अनुरोध सबमिट कर सकते हैं।
विवरण
Deepseek Thinker MCP Server
A MCP (Model Context Protocol) provider Deepseek reasoning content to MCP-enabled AI Clients, like Claude Desktop. Supports access to Deepseek's thought processes from the Deepseek API service or from a local Ollama server.
<a href="https://glama.ai/mcp/servers/d7spzsfuwz"><img width="380" height="200" src="https://glama.ai/mcp/servers/d7spzsfuwz/badge" alt="Deepseek Thinker Server MCP server" /></a>
Core Features
-
🤖 Dual Mode Support
- OpenAI API mode support
- Ollama local mode support
-
🎯 Focused Reasoning
- Captures Deepseek's thinking process
- Provides reasoning output
Available Tools
get-deepseek-thinker
- Description: Perform reasoning using the Deepseek model
- Input Parameters:
originPrompt
(string): User's original prompt
- Returns: Structured text response containing the reasoning process
Environment Configuration
OpenAI API Mode
Set the following environment variables:
API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>
Ollama Mode
Set the following environment variable:
USE_OLLAMA=true
Usage
Integration with AI Client, like Claude Desktop
Add the following configuration to your claude_desktop_config.json
:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Using Ollama Mode
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}
Local Server Configuration
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Development Setup
### Install dependencies
npm install
### Build project
npm run build
### Run service
node build/index.js
FAQ
Response like this: "MCP error -32001: Request timed out"
This error occurs when the Deepseek API response is too slow or when the reasoning content output is too long, causing the MCP server to timeout.
Tech Stack
- TypeScript
- @modelcontextprotocol/sdk
- OpenAI API
- Ollama
- Zod (parameter validation)
License
This project is licensed under the MIT License. See the LICENSE file for details.
सर्वर कॉन्फ़िगरेशन
{
"mcpServers": {
"deepseek-thinker-mcp": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--ruixingshi--deepseek-thinker-mcp--deepseek-thinker-mcp",
"node ./build/index.js"
],
"env": {
"API_KEY": "api-key",
"BASE_URL": "base-url"
}
}
}
}