Deepseek Penseur Serveur Mcp

Créé parruixingshiruixingshi

Un fournisseur MCP Deepseek fournit du contenu de raisonnement aux clients AI compatibles MCP, comme Claude Desktop. Prend en charge l'accès à CoT de Deepseek via le service API de Deepseek ou un serveur Ollama local.

Aperçu

Qu'est-ce que Deepseek Thinker MCP ?

Deepseek Thinker MCP est un puissant fournisseur conçu pour améliorer les capacités de raisonnement pour les clients IA compatibles MCP, tels que Claude Desktop. Il facilite un accès fluide à la Chaîne de Pensée (CoT) de Deepseek via le service API de Deepseek ou un serveur Ollama local. Cette intégration permet aux développeurs et aux utilisateurs de tirer parti de processus de raisonnement et de prise de décision avancés dans leurs applications.

Fonctionnalités de Deepseek Thinker MCP

  • Compatibilité MCP : Conçu spécifiquement pour les clients IA compatibles MCP, garantissant des performances et une intégration optimales.
  • Accès à l'API Deepseek : Les utilisateurs peuvent facilement se connecter à l'API étendue de Deepseek, permettant une large gamme de fonctionnalités.
  • Support de serveur local : Offre la flexibilité de fonctionner avec un serveur Ollama local, donnant aux utilisateurs plus de contrôle sur leurs données et leur traitement.
  • Raisonnement amélioré : Utilise des algorithmes avancés pour améliorer les capacités de raisonnement des applications IA, les rendant plus efficaces et performantes.
  • Interface conviviale : Conçu avec un accent sur l'utilisabilité, facilitant l'implémentation et l'utilisation des fonctionnalités par les développeurs.

Comment utiliser Deepseek Thinker MCP

  1. Installation : Commencez par installer le package Deepseek Thinker MCP dans votre environnement de développement. Suivez les instructions d'installation fournies dans la documentation.

  2. Configuration : Configurez les paramètres de connexion soit à l'API Deepseek, soit à votre serveur Ollama local. Assurez-vous que toutes les informations d'identification et les points de terminaison nécessaires sont correctement configurés.

  3. Intégration : Intégrez Deepseek Thinker MCP dans votre application IA. Utilisez les API fournies pour accéder aux capacités de raisonnement et améliorer les performances de votre application.

  4. Test : Effectuez des tests approfondis pour vous assurer que l'intégration fonctionne comme prévu. Validez les sorties de raisonnement et apportez des ajustements si nécessaire.

  5. Déploiement : Une fois les tests terminés, déployez votre application avec la fonctionnalité intégrée de Deepseek Thinker MCP.

Questions Fréquemment Posées

Q1 : Qu'est-ce que MCP ?

A1 : MCP signifie Protocole Modèle-Client, qui est un cadre permettant aux modèles IA de communiquer et d'interagir efficacement avec les applications clientes.

Q2 : Puis-je utiliser Deepseek Thinker MCP sans serveur local ?

A2 : Oui, vous pouvez utiliser Deepseek Thinker MCP en vous connectant directement à l'API Deepseek sans avoir besoin d'un serveur local.

Q3 : Quels types d'applications peuvent bénéficier de Deepseek Thinker MCP ?

A3 : Toute application nécessitant des capacités de raisonnement avancées, telles que des chatbots, des assistants virtuels et des systèmes de prise de décision, peut bénéficier de Deepseek Thinker MCP.

Q4 : Y a-t-il un support disponible pour les développeurs utilisant Deepseek Thinker MCP ?

A4 : Oui, une documentation complète et un support communautaire sont disponibles pour aider les développeurs à utiliser Deepseek Thinker MCP efficacement.

Q5 : Comment puis-je contribuer au projet Deepseek Thinker MCP ?

A5 : Les contributions sont les bienvenues ! Vous pouvez forker le dépôt, apporter vos modifications et soumettre une demande de tirage pour révision.

Détail

Deepseek Thinker MCP Server

smithery badge

A MCP (Model Context Protocol) provider Deepseek reasoning content to MCP-enabled AI Clients, like Claude Desktop. Supports access to Deepseek's thought processes from the Deepseek API service or from a local Ollama server.

<a href="https://glama.ai/mcp/servers/d7spzsfuwz"><img width="380" height="200" src="https://glama.ai/mcp/servers/d7spzsfuwz/badge" alt="Deepseek Thinker Server MCP server" /></a>

Core Features

  • 🤖 Dual Mode Support

    • OpenAI API mode support
    • Ollama local mode support
  • 🎯 Focused Reasoning

    • Captures Deepseek's thinking process
    • Provides reasoning output

Available Tools

get-deepseek-thinker

  • Description: Perform reasoning using the Deepseek model
  • Input Parameters:
    • originPrompt (string): User's original prompt
  • Returns: Structured text response containing the reasoning process

Environment Configuration

OpenAI API Mode

Set the following environment variables:

API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>

Ollama Mode

Set the following environment variable:

USE_OLLAMA=true

Usage

Integration with AI Client, like Claude Desktop

Add the following configuration to your claude_desktop_config.json:

{
  "mcpServers": {
    "deepseek-thinker": {
      "command": "npx",
      "args": [
        "-y",
        "deepseek-thinker-mcp"
      ],
      "env": {
        "API_KEY": "<Your API Key>",
        "BASE_URL": "<Your Base URL>"
      }
    }
  }
}

Using Ollama Mode

{
  "mcpServers": {
    "deepseek-thinker": {
      "command": "npx",
      "args": [
        "-y",
        "deepseek-thinker-mcp"
      ],
      "env": {
        "USE_OLLAMA": "true"
      }
    }
  }
}

Local Server Configuration

{
  "mcpServers": {
    "deepseek-thinker": {
      "command": "node",
      "args": [
        "/your-path/deepseek-thinker-mcp/build/index.js"
      ],
      "env": {
        "API_KEY": "<Your API Key>",
        "BASE_URL": "<Your Base URL>"
      }
    }
  }
}

Development Setup

### Install dependencies
npm install

### Build project
npm run build

### Run service
node build/index.js

FAQ

Response like this: "MCP error -32001: Request timed out"

This error occurs when the Deepseek API response is too slow or when the reasoning content output is too long, causing the MCP server to timeout.

Tech Stack

  • TypeScript
  • @modelcontextprotocol/sdk
  • OpenAI API
  • Ollama
  • Zod (parameter validation)

License

This project is licensed under the MIT License. See the LICENSE file for details.

Configuration du serveur

{
  "mcpServers": {
    "deepseek-thinker-mcp": {
      "command": "docker",
      "args": [
        "run",
        "-i",
        "--rm",
        "ghcr.io/metorial/mcp-container--ruixingshi--deepseek-thinker-mcp--deepseek-thinker-mcp",
        "node ./build/index.js"
      ],
      "env": {
        "API_KEY": "api-key",
        "BASE_URL": "base-url"
      }
    }
  }
}

Infos du projet

Auteur
ruixingshi
Créé le
Sept 4, 2025
Étoile
62
Langue
JavaScript
Tags
-

Deepseek Penseur Ser... Alternative

Pour quelques alternatives à Deepseek Penseur Ser... dont vous pourriez avoir besoin, nous vous proposons des sites classés par catégorie.

Spécification OpenAPI serveur MCP.

Recherche approfondie sur le serveur Mcp

Un serveur de Protocole de Contexte de Modèle (MCP) qui se connecte à l'API Strava, fournissant des outils pour accéder aux données Strava via des LLM.

Un serveur de Protocole de Contexte de Modèle (MCP) qui fournit un accès aux informations de voyage de NS (Chemins de fer néerlandais) via Claude AI. Ce serveur permet à Claude de récupérer des informations de voyage en temps réel et des perturbations des trains en utilisant l'API officielle de NS néerlandais.

Ceci est un serveur de Protocole de Contexte de Modèle (MCP) qui fournit des données professionnelles sur le cyclisme provenant de FirstCycling. Il vous permet de récupérer des informations sur les cyclistes professionnels, les résultats de courses, et plus encore.

Un serveur MCP Docker (protocole de contexte de modèle)

Voir plus >>