Deepseek Thinker Mcp Сервер
Поставщик MCP Deepseek предоставляет контент для рассуждений MCP-совместимым ИИ-клиентам, таким как Claude Desktop. Поддерживает доступ к CoT Deepseek через сервис API Deepseek или локальный сервер Ollama.
Обзор
Что такое Deepseek Thinker MCP?
Deepseek Thinker MCP — это мощный инструмент, предназначенный для улучшения возможностей рассуждения для AI-клиентов с поддержкой MCP, таких как Claude Desktop. Он обеспечивает бесшовный доступ к Chain of Thought (CoT) от Deepseek через сервис API Deepseek или локальный сервер Ollama. Эта интеграция позволяет разработчикам и пользователям использовать продвинутые процессы рассуждения и принятия решений в своих приложениях.
Особенности Deepseek Thinker MCP
- Совместимость с MCP: Специально разработан для AI-клиентов с поддержкой MCP, обеспечивая оптимальную производительность и интеграцию.
- Доступ к API Deepseek: Пользователи могут легко подключаться к обширному API Deepseek, что позволяет использовать широкий спектр функций.
- Поддержка локального сервера: Предоставляет гибкость работы с локальным сервером Ollama, давая пользователям больше контроля над своими данными и обработкой.
- Улучшенное рассуждение: Использует продвинутые алгоритмы для повышения возможностей рассуждения AI-приложений, делая их более эффективными и действенными.
- Удобный интерфейс: Разработан с акцентом на удобство использования, что упрощает разработчикам внедрение и использование функций.
Как использовать Deepseek Thinker MCP
-
Установка: Начните с установки пакета Deepseek Thinker MCP в вашей среде разработки. Следуйте инструкциям по установке, приведенным в документации.
-
Конфигурация: Настройте параметры подключения к API Deepseek или вашему локальному серверу Ollama. Убедитесь, что все необходимые учетные данные и конечные точки правильно настроены.
-
Интеграция: Интегрируйте Deepseek Thinker MCP в ваше AI-приложение. Используйте предоставленные API для доступа к возможностям рассуждения и улучшения производительности вашего приложения.
-
Тестирование: Проведите тщательное тестирование, чтобы убедиться, что интеграция работает как ожидалось. Проверьте результаты рассуждений и внесите необходимые корректировки.
-
Развертывание: После завершения тестирования разверните ваше приложение с интегрированной функциональностью Deepseek Thinker MCP.
Часто задаваемые вопросы
В1: Что такое MCP?
О1: MCP расшифровывается как Model-Client Protocol, что является рамочной структурой, позволяющей AI-моделям эффективно общаться и взаимодействовать с клиентскими приложениями.
В2: Могу ли я использовать Deepseek Thinker MCP без локального сервера?
О2: Да, вы можете использовать Deepseek Thinker MCP, подключаясь напрямую к API Deepseek без необходимости в локальном сервере.
В3: Какие типы приложений могут извлечь выгоду из Deepseek Thinker MCP?
О3: Любое приложение, которое требует продвинутых возможностей рассуждения, такое как чат-боты, виртуальные ассистенты и системы принятия решений, может извлечь выгоду из Deepseek Thinker MCP.
В4: Доступна ли поддержка для разработчиков, использующих Deepseek Thinker MCP?
О4: Да, доступна обширная документация и поддержка сообщества, чтобы помочь разработчикам эффективно использовать Deepseek Thinker MCP.
В5: Как я могу внести свой вклад в проект Deepseek Thinker MCP?
О5: Вклады приветствуются! Вы можете создать форк репозитория, внести изменения и отправить запрос на слияние для рассмотрения.
Деталь
Deepseek Thinker MCP Server
A MCP (Model Context Protocol) provider Deepseek reasoning content to MCP-enabled AI Clients, like Claude Desktop. Supports access to Deepseek's thought processes from the Deepseek API service or from a local Ollama server.
<a href="https://glama.ai/mcp/servers/d7spzsfuwz"><img width="380" height="200" src="https://glama.ai/mcp/servers/d7spzsfuwz/badge" alt="Deepseek Thinker Server MCP server" /></a>
Core Features
-
🤖 Dual Mode Support
- OpenAI API mode support
- Ollama local mode support
-
🎯 Focused Reasoning
- Captures Deepseek's thinking process
- Provides reasoning output
Available Tools
get-deepseek-thinker
- Description: Perform reasoning using the Deepseek model
- Input Parameters:
originPrompt
(string): User's original prompt
- Returns: Structured text response containing the reasoning process
Environment Configuration
OpenAI API Mode
Set the following environment variables:
API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>
Ollama Mode
Set the following environment variable:
USE_OLLAMA=true
Usage
Integration with AI Client, like Claude Desktop
Add the following configuration to your claude_desktop_config.json
:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Using Ollama Mode
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}
Local Server Configuration
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Development Setup
### Install dependencies
npm install
### Build project
npm run build
### Run service
node build/index.js
FAQ
Response like this: "MCP error -32001: Request timed out"
This error occurs when the Deepseek API response is too slow or when the reasoning content output is too long, causing the MCP server to timeout.
Tech Stack
- TypeScript
- @modelcontextprotocol/sdk
- OpenAI API
- Ollama
- Zod (parameter validation)
License
This project is licensed under the MIT License. See the LICENSE file for details.
Конфигурация сервера
{
"mcpServers": {
"deepseek-thinker-mcp": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--ruixingshi--deepseek-thinker-mcp--deepseek-thinker-mcp",
"node ./build/index.js"
],
"env": {
"API_KEY": "api-key",
"BASE_URL": "base-url"
}
}
}
}