Deepseek Penseur Serveur Mcp
Un fournisseur MCP Deepseek fournit du contenu de raisonnement aux clients AI compatibles MCP, comme Claude Desktop. Prend en charge l'accès à CoT de Deepseek via le service API de Deepseek ou un serveur Ollama local.
Aperçu
Qu'est-ce que Deepseek Thinker MCP ?
Deepseek Thinker MCP est un puissant fournisseur conçu pour améliorer les capacités de raisonnement pour les clients IA compatibles MCP, tels que Claude Desktop. Il facilite un accès fluide à la Chaîne de Pensée (CoT) de Deepseek via le service API de Deepseek ou un serveur Ollama local. Cette intégration permet aux développeurs et aux utilisateurs de tirer parti de processus de raisonnement et de prise de décision avancés dans leurs applications.
Fonctionnalités de Deepseek Thinker MCP
- Compatibilité MCP : Conçu spécifiquement pour les clients IA compatibles MCP, garantissant des performances et une intégration optimales.
- Accès à l'API Deepseek : Les utilisateurs peuvent facilement se connecter à l'API étendue de Deepseek, permettant une large gamme de fonctionnalités.
- Support de serveur local : Offre la flexibilité de fonctionner avec un serveur Ollama local, donnant aux utilisateurs plus de contrôle sur leurs données et leur traitement.
- Raisonnement amélioré : Utilise des algorithmes avancés pour améliorer les capacités de raisonnement des applications IA, les rendant plus efficaces et performantes.
- Interface conviviale : Conçu avec un accent sur l'utilisabilité, facilitant l'implémentation et l'utilisation des fonctionnalités par les développeurs.
Comment utiliser Deepseek Thinker MCP
-
Installation : Commencez par installer le package Deepseek Thinker MCP dans votre environnement de développement. Suivez les instructions d'installation fournies dans la documentation.
-
Configuration : Configurez les paramètres de connexion soit à l'API Deepseek, soit à votre serveur Ollama local. Assurez-vous que toutes les informations d'identification et les points de terminaison nécessaires sont correctement configurés.
-
Intégration : Intégrez Deepseek Thinker MCP dans votre application IA. Utilisez les API fournies pour accéder aux capacités de raisonnement et améliorer les performances de votre application.
-
Test : Effectuez des tests approfondis pour vous assurer que l'intégration fonctionne comme prévu. Validez les sorties de raisonnement et apportez des ajustements si nécessaire.
-
Déploiement : Une fois les tests terminés, déployez votre application avec la fonctionnalité intégrée de Deepseek Thinker MCP.
Questions Fréquemment Posées
Q1 : Qu'est-ce que MCP ?
A1 : MCP signifie Protocole Modèle-Client, qui est un cadre permettant aux modèles IA de communiquer et d'interagir efficacement avec les applications clientes.
Q2 : Puis-je utiliser Deepseek Thinker MCP sans serveur local ?
A2 : Oui, vous pouvez utiliser Deepseek Thinker MCP en vous connectant directement à l'API Deepseek sans avoir besoin d'un serveur local.
Q3 : Quels types d'applications peuvent bénéficier de Deepseek Thinker MCP ?
A3 : Toute application nécessitant des capacités de raisonnement avancées, telles que des chatbots, des assistants virtuels et des systèmes de prise de décision, peut bénéficier de Deepseek Thinker MCP.
Q4 : Y a-t-il un support disponible pour les développeurs utilisant Deepseek Thinker MCP ?
A4 : Oui, une documentation complète et un support communautaire sont disponibles pour aider les développeurs à utiliser Deepseek Thinker MCP efficacement.
Q5 : Comment puis-je contribuer au projet Deepseek Thinker MCP ?
A5 : Les contributions sont les bienvenues ! Vous pouvez forker le dépôt, apporter vos modifications et soumettre une demande de tirage pour révision.
Détail
Deepseek Thinker MCP Server
A MCP (Model Context Protocol) provider Deepseek reasoning content to MCP-enabled AI Clients, like Claude Desktop. Supports access to Deepseek's thought processes from the Deepseek API service or from a local Ollama server.
<a href="https://glama.ai/mcp/servers/d7spzsfuwz"><img width="380" height="200" src="https://glama.ai/mcp/servers/d7spzsfuwz/badge" alt="Deepseek Thinker Server MCP server" /></a>
Core Features
-
🤖 Dual Mode Support
- OpenAI API mode support
- Ollama local mode support
-
🎯 Focused Reasoning
- Captures Deepseek's thinking process
- Provides reasoning output
Available Tools
get-deepseek-thinker
- Description: Perform reasoning using the Deepseek model
- Input Parameters:
originPrompt
(string): User's original prompt
- Returns: Structured text response containing the reasoning process
Environment Configuration
OpenAI API Mode
Set the following environment variables:
API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>
Ollama Mode
Set the following environment variable:
USE_OLLAMA=true
Usage
Integration with AI Client, like Claude Desktop
Add the following configuration to your claude_desktop_config.json
:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Using Ollama Mode
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}
Local Server Configuration
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Development Setup
### Install dependencies
npm install
### Build project
npm run build
### Run service
node build/index.js
FAQ
Response like this: "MCP error -32001: Request timed out"
This error occurs when the Deepseek API response is too slow or when the reasoning content output is too long, causing the MCP server to timeout.
Tech Stack
- TypeScript
- @modelcontextprotocol/sdk
- OpenAI API
- Ollama
- Zod (parameter validation)
License
This project is licensed under the MIT License. See the LICENSE file for details.
Configuration du serveur
{
"mcpServers": {
"deepseek-thinker-mcp": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--ruixingshi--deepseek-thinker-mcp--deepseek-thinker-mcp",
"node ./build/index.js"
],
"env": {
"API_KEY": "api-key",
"BASE_URL": "base-url"
}
}
}
}
Infos du projet
Deepseek Penseur Ser... Alternative
Pour quelques alternatives à Deepseek Penseur Ser... dont vous pourriez avoir besoin, nous vous proposons des sites classés par catégorie.
Un serveur de Protocole de Contexte de Modèle (MCP) qui se connecte à l'API Strava, fournissant des outils pour accéder aux données Strava via des LLM.
Un serveur de Protocole de Contexte de Modèle (MCP) qui fournit un accès aux informations de voyage de NS (Chemins de fer néerlandais) via Claude AI. Ce serveur permet à Claude de récupérer des informations de voyage en temps réel et des perturbations des trains en utilisant l'API officielle de NS néerlandais.