Qualquer Conclusões de Chat Mcp Servidor Mcp
Servidor MCP para usar qualquer LLM como uma Ferramenta
Visão geral
O que é Any Chat Completions MCP?
Any Chat Completions MCP é um servidor versátil projetado para utilizar qualquer Modelo de Linguagem Grande (LLM) como uma ferramenta. Esta plataforma inovadora permite que desenvolvedores e usuários integrem vários LLMs em suas aplicações, aprimorando as capacidades de chatbots e outras interfaces conversacionais. Ao aproveitar o poder dos LLMs, os usuários podem criar interações mais envolventes e inteligentes, tornando-se um recurso valioso para empresas e desenvolvedores.
Recursos do Any Chat Completions MCP
- Suporte a Múltiplos LLMs: O servidor suporta vários LLMs, permitindo que os usuários escolham o melhor modelo para suas necessidades específicas.
- Integração Fácil: Com uma API simples, os desenvolvedores podem integrar facilmente o servidor em suas aplicações existentes.
- Escalabilidade: A arquitetura é projetada para lidar com um grande número de solicitações, tornando-a adequada tanto para pequenos projetos quanto para aplicações em grande escala.
- Personalizável: Os usuários podem personalizar o comportamento dos LLMs para atender a seus casos de uso específicos, melhorando a experiência do usuário.
- Código Aberto: Sendo um projeto de código aberto, ele incentiva contribuições da comunidade e transparência.
Como Usar o Any Chat Completions MCP
- Instalação: Comece clonando o repositório do GitHub e instalando as dependências necessárias.
- Configuração: Configure seu ambiente ajustando as configurações do servidor para especificar quais LLMs você deseja usar.
- Integração da API: Use os endpoints da API fornecidos para enviar solicitações ao servidor e receber respostas dos LLMs.
- Testes: Teste a integração em um ambiente de desenvolvimento para garantir que tudo esteja funcionando como esperado.
- Implantação: Após os testes, implante o servidor em seu ambiente de produção e comece a utilizar os LLMs em suas aplicações.
Perguntas Frequentes
Q: Qual é o principal caso de uso do Any Chat Completions MCP?
A: O principal caso de uso é aprimorar chatbots e interfaces conversacionais integrando vários LLMs, permitindo interações mais inteligentes e envolventes.
Q: O Any Chat Completions MCP é gratuito para usar?
A: Sim, é um projeto de código aberto, o que significa que é gratuito para usar e modificar.
Q: Posso contribuir para o projeto?
A: Absolutamente! Contribuições são bem-vindas. Você pode enviar problemas, solicitações de recursos ou pull requests no repositório do GitHub.
Q: Quais linguagens de programação são suportadas?
A: O servidor é projetado para ser independente de linguagem, mas a API pode ser facilmente acessada usando linguagens de programação populares como Python, JavaScript e Java.
Q: Como posso relatar problemas ou bugs?
A: Você pode relatar problemas ou bugs criando uma issue no repositório do GitHub, fornecendo detalhes sobre o problema que encontrou.
Ao utilizar o Any Chat Completions MCP, os desenvolvedores podem aprimorar significativamente as capacidades conversacionais de suas aplicações, tornando-o uma ferramenta poderosa no campo da IA e aprendizado de máquina.
Detalhe
any-chat-completions-mcp MCP Server
Integrate Claude with Any OpenAI SDK Compatible Chat Completion API - OpenAI, Perplexity, Groq, xAI, PyroPrompts and more.
This implements the Model Context Protocol Server. Learn more: https://modelcontextprotocol.io
This is a TypeScript-based MCP server that implements an implementation into any OpenAI SDK Compatible Chat Completions API.
It has one tool, chat
which relays a question to a configured AI Chat Provider.
<a href="https://glama.ai/mcp/servers/nuksdrfb55"><img width="380" height="200" src="https://glama.ai/mcp/servers/nuksdrfb55/badge" /></a>
Development
Install dependencies:
npm install
Build the server:
npm run build
For development with auto-rebuild:
npm run watch
Installation
To add OpenAI to Claude Desktop, add the server config:
On MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
On Windows: %APPDATA%/Claude/claude_desktop_config.json
You can use it via npx
in your Claude Desktop configuration like this:
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
Or, if you clone the repo, you can build and use in your Claude Desktop configuration like this:
{
"mcpServers": {
"chat-openai": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
You can add multiple providers by referencing the same MCP server multiple times, but with different env arguments:
{
"mcpServers": {
"chat-pyroprompts": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "PYROPROMPTS_KEY",
"AI_CHAT_NAME": "PyroPrompts",
"AI_CHAT_MODEL": "ash",
"AI_CHAT_BASE_URL": "https://api.pyroprompts.com/openaiv1"
}
},
"chat-perplexity": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "PERPLEXITY_KEY",
"AI_CHAT_NAME": "Perplexity",
"AI_CHAT_MODEL": "sonar",
"AI_CHAT_BASE_URL": "https://api.perplexity.ai"
}
},
"chat-openai": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
With these three, you'll see a tool for each in the Claude Desktop Home:
And then you can chat with other LLMs and it shows in chat like this:
Or, configure in LibreChat like:
chat-perplexity:
type: stdio
command: npx
args:
- -y
- @pyroprompts/any-chat-completions-mcp
env:
AI_CHAT_KEY: "pplx-012345679"
AI_CHAT_NAME: Perplexity
AI_CHAT_MODEL: sonar
AI_CHAT_BASE_URL: "https://api.perplexity.ai"
PATH: '/usr/local/bin:/usr/bin:/bin'
And it shows in LibreChat:
Installing via Smithery
To install Any OpenAI Compatible API Integrations for Claude Desktop automatically via Smithery:
npx -y @smithery/cli install any-chat-completions-mcp-server --client claude
Debugging
Since MCP servers communicate over stdio, debugging can be challenging. We recommend using the MCP Inspector, which is available as a package script:
npm run inspector
The Inspector will provide a URL to access debugging tools in your browser.
Acknowledgements
- Obviously the modelcontextprotocol and Anthropic team for the MCP Specification and integration into Claude Desktop. https://modelcontextprotocol.io/introduction
- PyroPrompts for sponsoring this project. Use code
CLAUDEANYCHAT
for 20 free automation credits on Pyroprompts.
Configuração do Servidor
{
"mcpServers": {
"any-chat-completions-mcp": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--pyroprompts--any-chat-completions-mcp--any-chat-completions-mcp",
"npm run start"
],
"env": {
"AI_CHAT_KEY": "ai-chat-key",
"AI_CHAT_NAME": "ai-chat-name",
"AI_CHAT_MODEL": "ai-chat-model",
"AI_CHAT_BASE_URL": "ai-chat-base-url"
}
}
}
}