Deepseek Thinker Mcp サーバー
MCPプロバイダーDeepseekは、Claude DesktopのようなMCP対応AIクライアントに対して推論コンテンツを提供します。DeepseekのAPIサービスまたはローカルOllamaサーバーからDeepseekのCoTへのアクセスをサポートしています。
概要
Deepseek Thinker MCPとは?
Deepseek Thinker MCPは、Claude DesktopなどのMCP対応AIクライアントの推論能力を向上させるために設計された強力なプロバイダーです。Deepseek APIサービスまたはローカルOllamaサーバーを通じて、DeepseekのChain of Thought(CoT)へのシームレスなアクセスを提供します。この統合により、開発者やユーザーはアプリケーションにおいて高度な推論および意思決定プロセスを活用できます。
Deepseek Thinker MCPの特徴
- MCP互換性:MCP対応AIクライアント向けに特別に設計されており、最適なパフォーマンスと統合を保証します。
- Deepseek APIへのアクセス:ユーザーはDeepseekの広範なAPIに簡単に接続でき、多様な機能を利用できます。
- ローカルサーバーサポート:ローカルOllamaサーバーでの運用が可能で、ユーザーにデータと処理のコントロールを提供します。
- 強化された推論:高度なアルゴリズムを利用してAIアプリケーションの推論能力を向上させ、より効率的かつ効果的にします。
- ユーザーフレンドリーなインターフェース:使いやすさに重点を置いて設計されており、開発者が機能を簡単に実装・利用できます。
Deepseek Thinker MCPの使用方法
-
インストール:まず、開発環境にDeepseek Thinker MCPパッケージをインストールします。ドキュメントに記載されたインストール手順に従ってください。
-
設定:Deepseek APIまたはローカルOllamaサーバーへの接続設定を構成します。必要な認証情報とエンドポイントが正しく設定されていることを確認してください。
-
統合:Deepseek Thinker MCPをAIアプリケーションに統合します。提供されたAPIを利用して推論機能にアクセスし、アプリケーションのパフォーマンスを向上させます。
-
テスト:統合が期待通りに機能することを確認するために、徹底的なテストを実施します。推論出力を検証し、必要に応じて調整を行います。
-
デプロイ:テストが完了したら、Deepseek Thinker MCP機能を統合したアプリケーションをデプロイします。
よくある質問
Q1: MCPとは何ですか?
A1: MCPはModel-Client Protocolの略で、AIモデルがクライアントアプリケーションと効果的に通信・相互作用するためのフレームワークです。
Q2: ローカルサーバーなしでDeepseek Thinker MCPを使用できますか?
A2: はい、ローカルサーバーを必要とせず、Deepseek APIに直接接続することでDeepseek Thinker MCPを使用できます。
Q3: Deepseek Thinker MCPから恩恵を受けることができるアプリケーションの種類は?
A3: チャットボット、バーチャルアシスタント、意思決定システムなど、高度な推論能力を必要とするアプリケーションは、Deepseek Thinker MCPから恩恵を受けることができます。
Q4: Deepseek Thinker MCPを使用する開発者向けのサポートはありますか?
A4: はい、Deepseek Thinker MCPを効果的に利用するための包括的なドキュメントとコミュニティサポートが提供されています。
Q5: Deepseek Thinker MCPプロジェクトに貢献するにはどうすればよいですか?
A5: 貢献は大歓迎です!リポジトリをフォークし、変更を加えてプルリクエストを提出してください。
詳細
Deepseek Thinker MCP Server
A MCP (Model Context Protocol) provider Deepseek reasoning content to MCP-enabled AI Clients, like Claude Desktop. Supports access to Deepseek's thought processes from the Deepseek API service or from a local Ollama server.
<a href="https://glama.ai/mcp/servers/d7spzsfuwz"><img width="380" height="200" src="https://glama.ai/mcp/servers/d7spzsfuwz/badge" alt="Deepseek Thinker Server MCP server" /></a>
Core Features
-
🤖 Dual Mode Support
- OpenAI API mode support
- Ollama local mode support
-
🎯 Focused Reasoning
- Captures Deepseek's thinking process
- Provides reasoning output
Available Tools
get-deepseek-thinker
- Description: Perform reasoning using the Deepseek model
- Input Parameters:
originPrompt
(string): User's original prompt
- Returns: Structured text response containing the reasoning process
Environment Configuration
OpenAI API Mode
Set the following environment variables:
API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>
Ollama Mode
Set the following environment variable:
USE_OLLAMA=true
Usage
Integration with AI Client, like Claude Desktop
Add the following configuration to your claude_desktop_config.json
:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Using Ollama Mode
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}
Local Server Configuration
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Development Setup
### Install dependencies
npm install
### Build project
npm run build
### Run service
node build/index.js
FAQ
Response like this: "MCP error -32001: Request timed out"
This error occurs when the Deepseek API response is too slow or when the reasoning content output is too long, causing the MCP server to timeout.
Tech Stack
- TypeScript
- @modelcontextprotocol/sdk
- OpenAI API
- Ollama
- Zod (parameter validation)
License
This project is licensed under the MIT License. See the LICENSE file for details.
サーバー設定
{
"mcpServers": {
"deepseek-thinker-mcp": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--ruixingshi--deepseek-thinker-mcp--deepseek-thinker-mcp",
"node ./build/index.js"
],
"env": {
"API_KEY": "api-key",
"BASE_URL": "base-url"
}
}
}
}