Deepseek R1 Serveur Mcp
Une implémentation de serveur de Protocole de Contexte de Modèle (MCP) connectant Claude Desktop aux modèles de langage de DeepSeek (R1/V3)
Aperçu
Qu'est-ce que MCP-server-Deepseek_R1 ?
MCP-server-Deepseek_R1 est une implémentation de serveur du Modèle de Protocole de Contexte (MCP) qui connecte Claude Desktop avec les modèles de langage de DeepSeek, spécifiquement les versions R1 et V3. Ce serveur facilite la communication et l'interaction sans faille entre l'interface utilisateur et les capacités de traitement du langage sous-jacentes de DeepSeek, permettant ainsi une fonctionnalité et une expérience utilisateur améliorées.
Fonctionnalités de MCP-server-Deepseek_R1
- Intégration avec Claude Desktop : Le serveur est conçu pour fonctionner directement avec Claude Desktop, offrant une interface conviviale pour accéder aux modèles de langage de DeepSeek.
- Support pour plusieurs modèles : Il prend en charge à la fois les versions R1 et V3 des modèles de langage de DeepSeek, offrant flexibilité et options aux utilisateurs.
- Open Source : Le projet est disponible publiquement, permettant aux développeurs de contribuer, modifier et améliorer le serveur selon leurs besoins.
- Communauté active : Avec un nombre croissant d'étoiles et de forks, le projet dispose d'une communauté active qui contribue à son développement et à son amélioration.
Comment utiliser MCP-server-Deepseek_R1
- Installation : Clonez le dépôt depuis GitHub en utilisant la commande :
git clone https://github.com/66julienmartin/MCP-server-Deepseek_R1.git
- Configuration : Suivez les instructions dans le fichier README pour configurer l'environnement du serveur et les dépendances.
- Exécution du serveur : Démarrez le serveur en utilisant les scripts ou commandes fournis, en vous assurant que toutes les configurations sont correctement définies pour votre environnement.
- Connexion à Claude Desktop : Une fois le serveur en cours d'exécution, connectez-le à Claude Desktop pour commencer à utiliser les modèles de langage pour diverses applications.
Questions Fréquemment Posées
Quel est le but de MCP dans ce contexte ?
Le Modèle de Protocole de Contexte (MCP) sert de cadre de communication qui permet à différentes applications d'interagir efficacement avec les modèles de langage, garantissant que le contexte est maintenu tout au long de l'interaction.
MCP-server-Deepseek_R1 est-il adapté à un usage en production ?
Oui, le serveur est conçu pour les environnements de développement et de production, mais les utilisateurs doivent le tester soigneusement dans leurs cas d'utilisation spécifiques pour garantir la stabilité et la performance.
Comment puis-je contribuer au projet ?
Vous pouvez contribuer en forkant le dépôt, en apportant vos modifications et en soumettant une demande de tirage. De plus, il est fortement encouragé de signaler des problèmes ou de suggérer des fonctionnalités.
Quelles sont les exigences système pour exécuter MCP-server-Deepseek_R1 ?
Les exigences système peuvent varier en fonction des configurations spécifiques et des modèles utilisés. En général, un serveur moderne avec une RAM et une puissance de traitement adéquates est recommandé pour gérer efficacement les tâches de traitement du langage.
Où puis-je trouver plus d'informations sur le projet ?
Pour plus de détails, de documentation et de mises à jour, vous pouvez visiter le dépôt GitHub.
Détail
Deepseek R1 MCP Server
A Model Context Protocol (MCP) server implementation for the Deepseek R1 language model. Deepseek R1 is a powerful language model optimized for reasoning tasks with a context window of 8192 tokens.
Why Node.js? This implementation uses Node.js/TypeScript as it provides the most stable integration with MCP servers. The Node.js SDK offers better type safety, error handling, and compatibility with Claude Desktop.
<a href="https://glama.ai/mcp/servers/qui5thpyvu"><img width="380" height="200" src="https://glama.ai/mcp/servers/qui5thpyvu/badge" alt="Deepseek R1 Server MCP server" /></a>
Quick Start
Installing manually
### Clone and install
git clone https://github.com/66julienmartin/MCP-server-Deepseek_R1.git
cd deepseek-r1-mcp
npm install
### Set up environment
cp .env.example .env # Then add your API key
### Build and run
npm run build
Prerequisites
- Node.js (v18 or higher)
- npm
- Claude Desktop
- Deepseek API key
Model Selection
By default, this server uses the deepseek-R1 model. If you want to use DeepSeek-V3 instead, modify the model name in src/index.ts
:
// For DeepSeek-R1 (default)
model: "deepseek-reasoner"
// For DeepSeek-V3
model: "deepseek-chat"
Project Structure
deepseek-r1-mcp/
├── src/
│ ├── index.ts # Main server implementation
├── build/ # Compiled files
│ ├── index.js
├── LICENSE
├── README.md
├── package.json
├── package-lock.json
└── tsconfig.json
Configuration
- Create a
.env
file:
DEEPSEEK_API_KEY=your-api-key-here
- Update Claude Desktop configuration:
{
"mcpServers": {
"deepseek_r1": {
"command": "node",
"args": ["/path/to/deepseek-r1-mcp/build/index.js"],
"env": {
"DEEPSEEK_API_KEY": "your-api-key"
}
}
}
}
Development
npm run dev # Watch mode
npm run build # Build for production
Features
- Advanced text generation with Deepseek R1 (8192 token context window)
- Configurable parameters (max_tokens, temperature)
- Robust error handling with detailed error messages
- Full MCP protocol support
- Claude Desktop integration
- Support for both DeepSeek-R1 and DeepSeek-V3 models
API Usage
{
"name": "deepseek_r1",
"arguments": {
"prompt": "Your prompt here",
"max_tokens": 8192, // Maximum tokens to generate
"temperature": 0.2 // Controls randomness
}
}
The Temperature Parameter
The default value of temperature
is 0.2.
Deepseek recommends setting the temperature
according to your specific use case:
| USE CASE | TEMPERATURE | EXAMPLE | |-|-|| | Coding / Math | 0.0 | Code generation, mathematical calculations | | Data Cleaning / Data Analysis | 1.0 | Data processing tasks | | General Conversation | 1.3 | Chat and dialogue | | Translation | 1.3 | Language translation | | Creative Writing / Poetry | 1.5 | Story writing, poetry generation |
Error Handling
The server provides detailed error messages for common issues:
- API authentication errors
- Invalid parameters
- Rate limiting
- Network issues
Contributing
Contributions are welcome! Please feel free to submit a Pull Request.
License
MIT
Configuration du serveur
{
"mcpServers": {
"mcp-server-deepseek-r-1": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--66julienmartin--mcp-server-deepseek_r1--mcp-server-deepseek-r-1",
"npm run start"
],
"env": {
"DEEPSEEK_API_KEY": "deepseek-api-key"
}
}
}
}