Deepseek R1 Mcp Server
Eine Implementierung eines Model Context Protocol (MCP) Servers, der Claude Desktop mit den Sprachmodellen von DeepSeek (R1/V3) verbindet.
Übersicht
Was ist MCP-server-Deepseek_R1?
MCP-server-Deepseek_R1 ist eine Implementierung des Model Context Protocol (MCP) Servers, der Claude Desktop mit den Sprachmodellen von DeepSeek verbindet, insbesondere den Versionen R1 und V3. Dieser Server ermöglicht eine nahtlose Kommunikation und Interaktion zwischen der Benutzeroberfläche und den zugrunde liegenden Sprachverarbeitungsfähigkeiten von DeepSeek, was die Funktionalität und Benutzererfahrung verbessert.
Funktionen von MCP-server-Deepseek_R1
- Integration mit Claude Desktop: Der Server ist so konzipiert, dass er direkt mit Claude Desktop arbeitet und eine benutzerfreundliche Oberfläche für den Zugriff auf die Sprachmodelle von DeepSeek bietet.
- Unterstützung für mehrere Modelle: Er unterstützt sowohl die R1- als auch die V3-Versionen der Sprachmodelle von DeepSeek und bietet den Benutzern Flexibilität und Optionen.
- Open Source: Das Projekt ist öffentlich verfügbar, sodass Entwickler zur Verbesserung und Anpassung des Servers beitragen können.
- Aktive Community: Mit einer wachsenden Anzahl von Sternen und Forks hat das Projekt eine aktive Community, die zur Entwicklung und Verbesserung beiträgt.
So verwenden Sie MCP-server-Deepseek_R1
- Installation: Klonen Sie das Repository von GitHub mit dem Befehl:
git clone https://github.com/66julienmartin/MCP-server-Deepseek_R1.git
- Einrichtung: Befolgen Sie die Anweisungen in der README-Datei, um die Serverumgebung und Abhängigkeiten einzurichten.
- Server starten: Starten Sie den Server mit den bereitgestellten Skripten oder Befehlen und stellen Sie sicher, dass alle Konfigurationen für Ihre Umgebung korrekt eingestellt sind.
- Verbindung zu Claude Desktop: Sobald der Server läuft, verbinden Sie ihn mit Claude Desktop, um die Sprachmodelle für verschiedene Anwendungen zu nutzen.
Häufig gestellte Fragen
Was ist der Zweck von MCP in diesem Kontext?
Das Model Context Protocol (MCP) dient als Kommunikationsrahmen, der es verschiedenen Anwendungen ermöglicht, effektiv mit Sprachmodellen zu interagieren und sicherzustellen, dass der Kontext während der Interaktion aufrechterhalten wird.
Ist MCP-server-Deepseek_R1 für den produktiven Einsatz geeignet?
Ja, der Server ist sowohl für Entwicklungs- als auch Produktionsumgebungen konzipiert, aber die Benutzer sollten ihn in ihren spezifischen Anwendungsfällen gründlich testen, um Stabilität und Leistung sicherzustellen.
Wie kann ich zum Projekt beitragen?
Sie können beitragen, indem Sie das Repository forken, Ihre Änderungen vornehmen und einen Pull-Request einreichen. Darüber hinaus wird es sehr geschätzt, Probleme zu melden oder Funktionen vorzuschlagen.
Was sind die Systemanforderungen für den Betrieb von MCP-server-Deepseek_R1?
Die Systemanforderungen können je nach den spezifischen Konfigurationen und verwendeten Modellen variieren. Im Allgemeinen wird ein moderner Server mit ausreichendem RAM und Rechenleistung empfohlen, um die Sprachverarbeitungsaufgaben effizient zu bewältigen.
Wo finde ich weitere Informationen über das Projekt?
Für weitere Details, Dokumentationen und Updates können Sie das GitHub-Repository besuchen.
Detail
Deepseek R1 MCP Server
A Model Context Protocol (MCP) server implementation for the Deepseek R1 language model. Deepseek R1 is a powerful language model optimized for reasoning tasks with a context window of 8192 tokens.
Why Node.js? This implementation uses Node.js/TypeScript as it provides the most stable integration with MCP servers. The Node.js SDK offers better type safety, error handling, and compatibility with Claude Desktop.
<a href="https://glama.ai/mcp/servers/qui5thpyvu"><img width="380" height="200" src="https://glama.ai/mcp/servers/qui5thpyvu/badge" alt="Deepseek R1 Server MCP server" /></a>
Quick Start
Installing manually
### Clone and install
git clone https://github.com/66julienmartin/MCP-server-Deepseek_R1.git
cd deepseek-r1-mcp
npm install
### Set up environment
cp .env.example .env # Then add your API key
### Build and run
npm run build
Prerequisites
- Node.js (v18 or higher)
- npm
- Claude Desktop
- Deepseek API key
Model Selection
By default, this server uses the deepseek-R1 model. If you want to use DeepSeek-V3 instead, modify the model name in src/index.ts
:
// For DeepSeek-R1 (default)
model: "deepseek-reasoner"
// For DeepSeek-V3
model: "deepseek-chat"
Project Structure
deepseek-r1-mcp/
├── src/
│ ├── index.ts # Main server implementation
├── build/ # Compiled files
│ ├── index.js
├── LICENSE
├── README.md
├── package.json
├── package-lock.json
└── tsconfig.json
Configuration
- Create a
.env
file:
DEEPSEEK_API_KEY=your-api-key-here
- Update Claude Desktop configuration:
{
"mcpServers": {
"deepseek_r1": {
"command": "node",
"args": ["/path/to/deepseek-r1-mcp/build/index.js"],
"env": {
"DEEPSEEK_API_KEY": "your-api-key"
}
}
}
}
Development
npm run dev # Watch mode
npm run build # Build for production
Features
- Advanced text generation with Deepseek R1 (8192 token context window)
- Configurable parameters (max_tokens, temperature)
- Robust error handling with detailed error messages
- Full MCP protocol support
- Claude Desktop integration
- Support for both DeepSeek-R1 and DeepSeek-V3 models
API Usage
{
"name": "deepseek_r1",
"arguments": {
"prompt": "Your prompt here",
"max_tokens": 8192, // Maximum tokens to generate
"temperature": 0.2 // Controls randomness
}
}
The Temperature Parameter
The default value of temperature
is 0.2.
Deepseek recommends setting the temperature
according to your specific use case:
| USE CASE | TEMPERATURE | EXAMPLE | |-|-|| | Coding / Math | 0.0 | Code generation, mathematical calculations | | Data Cleaning / Data Analysis | 1.0 | Data processing tasks | | General Conversation | 1.3 | Chat and dialogue | | Translation | 1.3 | Language translation | | Creative Writing / Poetry | 1.5 | Story writing, poetry generation |
Error Handling
The server provides detailed error messages for common issues:
- API authentication errors
- Invalid parameters
- Rate limiting
- Network issues
Contributing
Contributions are welcome! Please feel free to submit a Pull Request.
License
MIT
Serverkonfiguration
{
"mcpServers": {
"mcp-server-deepseek-r-1": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--66julienmartin--mcp-server-deepseek_r1--mcp-server-deepseek-r-1",
"npm run start"
],
"env": {
"DEEPSEEK_API_KEY": "deepseek-api-key"
}
}
}
}