Deepseek Pensador Servidor Mcp
Un proveedor de MCP Deepseek razona contenido para clientes de IA habilitados para MCP, como Claude Desktop. Soporta el acceso al CoT de Deepseek desde el servicio API de Deepseek o un servidor local de Ollama.
Resumen
¿Qué es Deepseek Thinker MCP?
Deepseek Thinker MCP es un potente proveedor diseñado para mejorar las capacidades de razonamiento para clientes de IA habilitados para MCP, como Claude Desktop. Facilita el acceso sin problemas a la Cadena de Pensamiento (CoT) de Deepseek a través del servicio API de Deepseek o un servidor local de Ollama. Esta integración permite a desarrolladores y usuarios aprovechar procesos avanzados de razonamiento y toma de decisiones en sus aplicaciones.
Características de Deepseek Thinker MCP
- Compatibilidad con MCP: Diseñado específicamente para clientes de IA habilitados para MCP, asegurando un rendimiento e integración óptimos.
- Acceso a la API de Deepseek: Los usuarios pueden conectarse fácilmente a la extensa API de Deepseek, lo que permite una amplia gama de funcionalidades.
- Soporte para Servidor Local: Ofrece la flexibilidad de operar con un servidor local de Ollama, brindando a los usuarios más control sobre sus datos y procesamiento.
- Razonamiento Mejorado: Utiliza algoritmos avanzados para mejorar las capacidades de razonamiento de las aplicaciones de IA, haciéndolas más eficientes y efectivas.
- Interfaz Amigable: Diseñada con un enfoque en la usabilidad, facilitando a los desarrolladores la implementación y utilización de las características.
Cómo Usar Deepseek Thinker MCP
-
Instalación: Comienza instalando el paquete Deepseek Thinker MCP en tu entorno de desarrollo. Sigue las instrucciones de instalación proporcionadas en la documentación.
-
Configuración: Configura los ajustes de conexión ya sea a la API de Deepseek o a tu servidor local de Ollama. Asegúrate de que todas las credenciales y puntos finales necesarios estén configurados correctamente.
-
Integración: Integra Deepseek Thinker MCP en tu aplicación de IA. Utiliza las APIs proporcionadas para acceder a las capacidades de razonamiento y mejorar el rendimiento de tu aplicación.
-
Pruebas: Realiza pruebas exhaustivas para asegurarte de que la integración funcione como se espera. Valida las salidas de razonamiento y haz ajustes según sea necesario.
-
Despliegue: Una vez completadas las pruebas, despliega tu aplicación con la funcionalidad integrada de Deepseek Thinker MCP.
Preguntas Frecuentes
P1: ¿Qué es MCP?
R1: MCP significa Protocolo Modelo-Cliente, que es un marco que permite a los modelos de IA comunicarse e interactuar con aplicaciones cliente de manera efectiva.
P2: ¿Puedo usar Deepseek Thinker MCP sin un servidor local?
R2: Sí, puedes usar Deepseek Thinker MCP conectándote directamente a la API de Deepseek sin necesidad de un servidor local.
P3: ¿Qué tipos de aplicaciones pueden beneficiarse de Deepseek Thinker MCP?
R3: Cualquier aplicación que requiera capacidades avanzadas de razonamiento, como chatbots, asistentes virtuales y sistemas de toma de decisiones, puede beneficiarse de Deepseek Thinker MCP.
P4: ¿Hay soporte disponible para desarrolladores que usan Deepseek Thinker MCP?
R4: Sí, hay documentación completa y soporte comunitario disponible para ayudar a los desarrolladores a utilizar Deepseek Thinker MCP de manera efectiva.
P5: ¿Cómo puedo contribuir al proyecto Deepseek Thinker MCP?
R5: ¡Las contribuciones son bienvenidas! Puedes bifurcar el repositorio, hacer tus cambios y enviar una solicitud de extracción para revisión.
Detalle
Deepseek Thinker MCP Server
A MCP (Model Context Protocol) provider Deepseek reasoning content to MCP-enabled AI Clients, like Claude Desktop. Supports access to Deepseek's thought processes from the Deepseek API service or from a local Ollama server.
<a href="https://glama.ai/mcp/servers/d7spzsfuwz"><img width="380" height="200" src="https://glama.ai/mcp/servers/d7spzsfuwz/badge" alt="Deepseek Thinker Server MCP server" /></a>
Core Features
-
🤖 Dual Mode Support
- OpenAI API mode support
- Ollama local mode support
-
🎯 Focused Reasoning
- Captures Deepseek's thinking process
- Provides reasoning output
Available Tools
get-deepseek-thinker
- Description: Perform reasoning using the Deepseek model
- Input Parameters:
originPrompt
(string): User's original prompt
- Returns: Structured text response containing the reasoning process
Environment Configuration
OpenAI API Mode
Set the following environment variables:
API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>
Ollama Mode
Set the following environment variable:
USE_OLLAMA=true
Usage
Integration with AI Client, like Claude Desktop
Add the following configuration to your claude_desktop_config.json
:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Using Ollama Mode
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}
Local Server Configuration
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Development Setup
### Install dependencies
npm install
### Build project
npm run build
### Run service
node build/index.js
FAQ
Response like this: "MCP error -32001: Request timed out"
This error occurs when the Deepseek API response is too slow or when the reasoning content output is too long, causing the MCP server to timeout.
Tech Stack
- TypeScript
- @modelcontextprotocol/sdk
- OpenAI API
- Ollama
- Zod (parameter validation)
License
This project is licensed under the MIT License. See the LICENSE file for details.
Configuración del Servidor
{
"mcpServers": {
"deepseek-thinker-mcp": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--ruixingshi--deepseek-thinker-mcp--deepseek-thinker-mcp",
"node ./build/index.js"
],
"env": {
"API_KEY": "api-key",
"BASE_URL": "base-url"
}
}
}
}