Deepseek Pensador Servidor Mcp
Um provedor MCP Deepseek raciocina conteúdo para Clientes de IA habilitados para MCP, como o Claude Desktop. Suporta acesso ao CoT do Deepseek a partir do serviço API do Deepseek ou de um servidor local Ollama.
Visão geral
O que é o Deepseek Thinker MCP?
Deepseek Thinker MCP é um poderoso provedor projetado para aprimorar as capacidades de raciocínio para clientes de IA habilitados para MCP, como o Claude Desktop. Ele facilita o acesso contínuo à Cadeia de Pensamento (CoT) da Deepseek através do serviço de API da Deepseek ou de um servidor local Ollama. Essa integração permite que desenvolvedores e usuários aproveitem processos avançados de raciocínio e tomada de decisão em suas aplicações.
Recursos do Deepseek Thinker MCP
- Compatibilidade com MCP: Projetado especificamente para clientes de IA habilitados para MCP, garantindo desempenho e integração ideais.
- Acesso à API da Deepseek: Os usuários podem se conectar facilmente à extensa API da Deepseek, permitindo uma ampla gama de funcionalidades.
- Suporte a Servidor Local: Oferece a flexibilidade de operar com um servidor local Ollama, proporcionando aos usuários mais controle sobre seus dados e processamento.
- Raciocínio Aprimorado: Utiliza algoritmos avançados para melhorar as capacidades de raciocínio das aplicações de IA, tornando-as mais eficientes e eficazes.
- Interface Amigável: Projetado com foco na usabilidade, facilitando a implementação e utilização dos recursos pelos desenvolvedores.
Como Usar o Deepseek Thinker MCP
-
Instalação: Comece instalando o pacote Deepseek Thinker MCP em seu ambiente de desenvolvimento. Siga as instruções de instalação fornecidas na documentação.
-
Configuração: Configure as configurações de conexão para a API da Deepseek ou seu servidor local Ollama. Certifique-se de que todas as credenciais e endpoints necessários estejam configurados corretamente.
-
Integração: Integre o Deepseek Thinker MCP em sua aplicação de IA. Utilize as APIs fornecidas para acessar as capacidades de raciocínio e melhorar o desempenho de sua aplicação.
-
Testes: Realize testes completos para garantir que a integração funcione como esperado. Valide as saídas de raciocínio e faça ajustes conforme necessário.
-
Implantação: Uma vez que os testes estejam completos, implante sua aplicação com a funcionalidade integrada do Deepseek Thinker MCP.
Perguntas Frequentes
Q1: O que é MCP?
A1: MCP significa Protocolo Modelo-Cliente, que é uma estrutura que permite que modelos de IA se comuniquem e interajam com aplicações cliente de forma eficaz.
Q2: Posso usar o Deepseek Thinker MCP sem um servidor local?
A2: Sim, você pode usar o Deepseek Thinker MCP conectando-se diretamente à API da Deepseek sem a necessidade de um servidor local.
Q3: Que tipos de aplicações podem se beneficiar do Deepseek Thinker MCP?
A3: Qualquer aplicação que exija capacidades avançadas de raciocínio, como chatbots, assistentes virtuais e sistemas de tomada de decisão, pode se beneficiar do Deepseek Thinker MCP.
Q4: Há suporte disponível para desenvolvedores que usam o Deepseek Thinker MCP?
A4: Sim, documentação abrangente e suporte da comunidade estão disponíveis para ajudar os desenvolvedores a utilizar o Deepseek Thinker MCP de forma eficaz.
Q5: Como posso contribuir para o projeto Deepseek Thinker MCP?
A5: Contribuições são bem-vindas! Você pode bifurcar o repositório, fazer suas alterações e enviar um pull request para revisão.
Detalhe
Deepseek Thinker MCP Server
A MCP (Model Context Protocol) provider Deepseek reasoning content to MCP-enabled AI Clients, like Claude Desktop. Supports access to Deepseek's thought processes from the Deepseek API service or from a local Ollama server.
<a href="https://glama.ai/mcp/servers/d7spzsfuwz"><img width="380" height="200" src="https://glama.ai/mcp/servers/d7spzsfuwz/badge" alt="Deepseek Thinker Server MCP server" /></a>
Core Features
-
🤖 Dual Mode Support
- OpenAI API mode support
- Ollama local mode support
-
🎯 Focused Reasoning
- Captures Deepseek's thinking process
- Provides reasoning output
Available Tools
get-deepseek-thinker
- Description: Perform reasoning using the Deepseek model
- Input Parameters:
originPrompt
(string): User's original prompt
- Returns: Structured text response containing the reasoning process
Environment Configuration
OpenAI API Mode
Set the following environment variables:
API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL>
Ollama Mode
Set the following environment variable:
USE_OLLAMA=true
Usage
Integration with AI Client, like Claude Desktop
Add the following configuration to your claude_desktop_config.json
:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Using Ollama Mode
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}
Local Server Configuration
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
Development Setup
### Install dependencies
npm install
### Build project
npm run build
### Run service
node build/index.js
FAQ
Response like this: "MCP error -32001: Request timed out"
This error occurs when the Deepseek API response is too slow or when the reasoning content output is too long, causing the MCP server to timeout.
Tech Stack
- TypeScript
- @modelcontextprotocol/sdk
- OpenAI API
- Ollama
- Zod (parameter validation)
License
This project is licensed under the MIT License. See the LICENSE file for details.
Configuração do Servidor
{
"mcpServers": {
"deepseek-thinker-mcp": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--ruixingshi--deepseek-thinker-mcp--deepseek-thinker-mcp",
"node ./build/index.js"
],
"env": {
"API_KEY": "api-key",
"BASE_URL": "base-url"
}
}
}
}