Deepseek R1 Mcp サーバー
Claude DesktopとDeepSeekの言語モデル(R1/V3)を接続するモデルコンテキストプロトコル(MCP)サーバーの実装
概要
MCP-server-Deepseek_R1とは?
MCP-server-Deepseek_R1は、Claude DesktopとDeepSeekの言語モデル、特にR1およびV3バージョンを接続するモデルコンテキストプロトコル(MCP)サーバーの実装です。このサーバーは、ユーザーインターフェースとDeepSeekの基盤となる言語処理機能との間でシームレスな通信と相互作用を可能にし、機能性とユーザー体験を向上させます。
MCP-server-Deepseek_R1の特徴
- Claude Desktopとの統合:サーバーはClaude Desktopと直接連携するように設計されており、DeepSeekの言語モデルにアクセスするためのユーザーフレンドリーなインターフェースを提供します。
- 複数モデルのサポート:DeepSeekの言語モデルのR1およびV3バージョンの両方をサポートし、ユーザーに柔軟性と選択肢を提供します。
- オープンソース:プロジェクトは公開されており、開発者がニーズに応じてサーバーを貢献、修正、強化することができます。
- 活発なコミュニティ:星やフォークの数が増えている中で、プロジェクトには開発と改善に貢献する活発なコミュニティがあります。
MCP-server-Deepseek_R1の使用方法
- インストール:以下のコマンドを使用してGitHubからリポジトリをクローンします。
git clone https://github.com/66julienmartin/MCP-server-Deepseek_R1.git
- セットアップ:READMEファイルの指示に従ってサーバー環境と依存関係を設定します。
- サーバーの実行:提供されたスクリプトやコマンドを使用してサーバーを起動し、すべての設定が環境に正しく設定されていることを確認します。
- Claude Desktopへの接続:サーバーが実行中になったら、Claude Desktopと接続してさまざまなアプリケーションで言語モデルを利用し始めます。
よくある質問
この文脈でのMCPの目的は何ですか?
モデルコンテキストプロトコル(MCP)は、異なるアプリケーションが言語モデルと効果的に相互作用できるようにする通信フレームワークとして機能し、相互作用全体でコンテキストが維持されることを保証します。
MCP-server-Deepseek_R1は本番環境での使用に適していますか?
はい、サーバーは開発環境と本番環境の両方に対応するように設計されていますが、ユーザーは特定の使用ケースでの安定性とパフォーマンスを確保するために十分にテストする必要があります。
プロジェクトにどのように貢献できますか?
リポジトリをフォークし、変更を加えてプルリクエストを提出することで貢献できます。また、問題を報告したり機能を提案することも奨励されています。
MCP-server-Deepseek_R1を実行するためのシステム要件は何ですか?
システム要件は、使用する特定の構成やモデルによって異なる場合があります。一般的には、言語処理タスクを効率的に処理するために、十分なRAMと処理能力を備えた現代的なサーバーが推奨されます。
プロジェクトに関する詳細情報はどこで見つけられますか?
詳細、ドキュメント、更新については、GitHubリポジトリを訪問してください。
詳細
Deepseek R1 MCP Server
A Model Context Protocol (MCP) server implementation for the Deepseek R1 language model. Deepseek R1 is a powerful language model optimized for reasoning tasks with a context window of 8192 tokens.
Why Node.js? This implementation uses Node.js/TypeScript as it provides the most stable integration with MCP servers. The Node.js SDK offers better type safety, error handling, and compatibility with Claude Desktop.
<a href="https://glama.ai/mcp/servers/qui5thpyvu"><img width="380" height="200" src="https://glama.ai/mcp/servers/qui5thpyvu/badge" alt="Deepseek R1 Server MCP server" /></a>
Quick Start
Installing manually
### Clone and install
git clone https://github.com/66julienmartin/MCP-server-Deepseek_R1.git
cd deepseek-r1-mcp
npm install
### Set up environment
cp .env.example .env # Then add your API key
### Build and run
npm run build
Prerequisites
- Node.js (v18 or higher)
- npm
- Claude Desktop
- Deepseek API key
Model Selection
By default, this server uses the deepseek-R1 model. If you want to use DeepSeek-V3 instead, modify the model name in src/index.ts
:
// For DeepSeek-R1 (default)
model: "deepseek-reasoner"
// For DeepSeek-V3
model: "deepseek-chat"
Project Structure
deepseek-r1-mcp/
├── src/
│ ├── index.ts # Main server implementation
├── build/ # Compiled files
│ ├── index.js
├── LICENSE
├── README.md
├── package.json
├── package-lock.json
└── tsconfig.json
Configuration
- Create a
.env
file:
DEEPSEEK_API_KEY=your-api-key-here
- Update Claude Desktop configuration:
{
"mcpServers": {
"deepseek_r1": {
"command": "node",
"args": ["/path/to/deepseek-r1-mcp/build/index.js"],
"env": {
"DEEPSEEK_API_KEY": "your-api-key"
}
}
}
}
Development
npm run dev # Watch mode
npm run build # Build for production
Features
- Advanced text generation with Deepseek R1 (8192 token context window)
- Configurable parameters (max_tokens, temperature)
- Robust error handling with detailed error messages
- Full MCP protocol support
- Claude Desktop integration
- Support for both DeepSeek-R1 and DeepSeek-V3 models
API Usage
{
"name": "deepseek_r1",
"arguments": {
"prompt": "Your prompt here",
"max_tokens": 8192, // Maximum tokens to generate
"temperature": 0.2 // Controls randomness
}
}
The Temperature Parameter
The default value of temperature
is 0.2.
Deepseek recommends setting the temperature
according to your specific use case:
| USE CASE | TEMPERATURE | EXAMPLE | |-|-|| | Coding / Math | 0.0 | Code generation, mathematical calculations | | Data Cleaning / Data Analysis | 1.0 | Data processing tasks | | General Conversation | 1.3 | Chat and dialogue | | Translation | 1.3 | Language translation | | Creative Writing / Poetry | 1.5 | Story writing, poetry generation |
Error Handling
The server provides detailed error messages for common issues:
- API authentication errors
- Invalid parameters
- Rate limiting
- Network issues
Contributing
Contributions are welcome! Please feel free to submit a Pull Request.
License
MIT
サーバー設定
{
"mcpServers": {
"mcp-server-deepseek-r-1": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--66julienmartin--mcp-server-deepseek_r1--mcp-server-deepseek-r-1",
"npm run start"
],
"env": {
"DEEPSEEK_API_KEY": "deepseek-api-key"
}
}
}
}