Deepseek R1 Servidor Mcp
Una implementación de servidor del Protocolo de Contexto de Modelo (MCP) que conecta Claude Desktop con los modelos de lenguaje de DeepSeek (R1/V3)
Resumen
¿Qué es MCP-server-Deepseek_R1?
MCP-server-Deepseek_R1 es una implementación de servidor del Protocolo de Contexto de Modelo (MCP) que conecta Claude Desktop con los modelos de lenguaje de DeepSeek, específicamente las versiones R1 y V3. Este servidor facilita la comunicación e interacción sin problemas entre la interfaz de usuario y las capacidades subyacentes de procesamiento de lenguaje de DeepSeek, permitiendo una funcionalidad mejorada y una mejor experiencia de usuario.
Características de MCP-server-Deepseek_R1
- Integración con Claude Desktop: El servidor está diseñado para trabajar directamente con Claude Desktop, proporcionando una interfaz fácil de usar para acceder a los modelos de lenguaje de DeepSeek.
- Soporte para Múltiples Modelos: Soporta tanto las versiones R1 como V3 de los modelos de lenguaje de DeepSeek, ofreciendo flexibilidad y opciones para los usuarios.
- Código Abierto: El proyecto está disponible públicamente, permitiendo a los desarrolladores contribuir, modificar y mejorar el servidor según sus necesidades.
- Comunidad Activa: Con un número creciente de estrellas y bifurcaciones, el proyecto cuenta con una comunidad activa que contribuye a su desarrollo y mejora.
Cómo Usar MCP-server-Deepseek_R1
- Instalación: Clona el repositorio desde GitHub usando el comando:
git clone https://github.com/66julienmartin/MCP-server-Deepseek_R1.git
- Configuración: Sigue las instrucciones en el archivo README para configurar el entorno del servidor y las dependencias.
- Ejecutar el Servidor: Inicia el servidor usando los scripts o comandos proporcionados, asegurándote de que todas las configuraciones estén correctamente establecidas para tu entorno.
- Conectar a Claude Desktop: Una vez que el servidor esté en funcionamiento, conéctalo con Claude Desktop para comenzar a utilizar los modelos de lenguaje para diversas aplicaciones.
Preguntas Frecuentes
¿Cuál es el propósito de MCP en este contexto?
El Protocolo de Contexto de Modelo (MCP) sirve como un marco de comunicación que permite a diferentes aplicaciones interactuar con los modelos de lenguaje de manera efectiva, asegurando que el contexto se mantenga a lo largo de la interacción.
¿Es MCP-server-Deepseek_R1 adecuado para uso en producción?
Sí, el servidor está diseñado tanto para entornos de desarrollo como de producción, pero los usuarios deben probarlo a fondo en sus casos de uso específicos para garantizar estabilidad y rendimiento.
¿Cómo puedo contribuir al proyecto?
Puedes contribuir bifurcando el repositorio, haciendo tus cambios y enviando una solicitud de extracción. Además, se anima a reportar problemas o sugerir características.
¿Cuáles son los requisitos del sistema para ejecutar MCP-server-Deepseek_R1?
Los requisitos del sistema pueden variar según las configuraciones y modelos específicos utilizados. Generalmente, se recomienda un servidor moderno con suficiente RAM y potencia de procesamiento para manejar las tareas de procesamiento de lenguaje de manera eficiente.
¿Dónde puedo encontrar más información sobre el proyecto?
Para más detalles, documentación y actualizaciones, puedes visitar el repositorio de GitHub.
Detalle
Deepseek R1 MCP Server
A Model Context Protocol (MCP) server implementation for the Deepseek R1 language model. Deepseek R1 is a powerful language model optimized for reasoning tasks with a context window of 8192 tokens.
Why Node.js? This implementation uses Node.js/TypeScript as it provides the most stable integration with MCP servers. The Node.js SDK offers better type safety, error handling, and compatibility with Claude Desktop.
<a href="https://glama.ai/mcp/servers/qui5thpyvu"><img width="380" height="200" src="https://glama.ai/mcp/servers/qui5thpyvu/badge" alt="Deepseek R1 Server MCP server" /></a>
Quick Start
Installing manually
### Clone and install
git clone https://github.com/66julienmartin/MCP-server-Deepseek_R1.git
cd deepseek-r1-mcp
npm install
### Set up environment
cp .env.example .env # Then add your API key
### Build and run
npm run build
Prerequisites
- Node.js (v18 or higher)
- npm
- Claude Desktop
- Deepseek API key
Model Selection
By default, this server uses the deepseek-R1 model. If you want to use DeepSeek-V3 instead, modify the model name in src/index.ts
:
// For DeepSeek-R1 (default)
model: "deepseek-reasoner"
// For DeepSeek-V3
model: "deepseek-chat"
Project Structure
deepseek-r1-mcp/
├── src/
│ ├── index.ts # Main server implementation
├── build/ # Compiled files
│ ├── index.js
├── LICENSE
├── README.md
├── package.json
├── package-lock.json
└── tsconfig.json
Configuration
- Create a
.env
file:
DEEPSEEK_API_KEY=your-api-key-here
- Update Claude Desktop configuration:
{
"mcpServers": {
"deepseek_r1": {
"command": "node",
"args": ["/path/to/deepseek-r1-mcp/build/index.js"],
"env": {
"DEEPSEEK_API_KEY": "your-api-key"
}
}
}
}
Development
npm run dev # Watch mode
npm run build # Build for production
Features
- Advanced text generation with Deepseek R1 (8192 token context window)
- Configurable parameters (max_tokens, temperature)
- Robust error handling with detailed error messages
- Full MCP protocol support
- Claude Desktop integration
- Support for both DeepSeek-R1 and DeepSeek-V3 models
API Usage
{
"name": "deepseek_r1",
"arguments": {
"prompt": "Your prompt here",
"max_tokens": 8192, // Maximum tokens to generate
"temperature": 0.2 // Controls randomness
}
}
The Temperature Parameter
The default value of temperature
is 0.2.
Deepseek recommends setting the temperature
according to your specific use case:
| USE CASE | TEMPERATURE | EXAMPLE | |-|-|| | Coding / Math | 0.0 | Code generation, mathematical calculations | | Data Cleaning / Data Analysis | 1.0 | Data processing tasks | | General Conversation | 1.3 | Chat and dialogue | | Translation | 1.3 | Language translation | | Creative Writing / Poetry | 1.5 | Story writing, poetry generation |
Error Handling
The server provides detailed error messages for common issues:
- API authentication errors
- Invalid parameters
- Rate limiting
- Network issues
Contributing
Contributions are welcome! Please feel free to submit a Pull Request.
License
MIT
Configuración del Servidor
{
"mcpServers": {
"mcp-server-deepseek-r-1": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--66julienmartin--mcp-server-deepseek_r1--mcp-server-deepseek-r-1",
"npm run start"
],
"env": {
"DEEPSEEK_API_KEY": "deepseek-api-key"
}
}
}
}
Información del Proyecto
Deepseek R1 Servidor... Alternativas
Para algunas alternativas a Deepseek R1 Servidor... que puedas necesitar, te ofrecemos sitios divididos por categoría.
📦 Repomix es una herramienta poderosa que empaqueta todo tu repositorio en un solo archivo amigable para la IA. Perfecto para cuando necesitas alimentar tu base de código a Modelos de Lenguaje Grande (LLMs) u otras herramientas de IA como Claude, ChatGPT, DeepSeek, Perplexity, Gemini, Gemma, Llama, Grok y más.