Toute complétion de chat Mcp Serveur Mcp
Serveur MCP pour utiliser n'importe quel LLM comme outil
Aperçu
Qu'est-ce que Any Chat Completions MCP ?
Any Chat Completions MCP est un serveur polyvalent conçu pour utiliser n'importe quel Modèle de Langage de Grande Taille (LLM) comme outil. Cette plateforme innovante permet aux développeurs et aux utilisateurs d'intégrer divers LLM dans leurs applications, améliorant ainsi les capacités des chatbots et d'autres interfaces conversationnelles. En tirant parti de la puissance des LLM, les utilisateurs peuvent créer des interactions plus engageantes et intelligentes, ce qui en fait une ressource précieuse pour les entreprises et les développeurs.
Fonctionnalités de Any Chat Completions MCP
- Support Multi-LLM : Le serveur prend en charge plusieurs LLM, permettant aux utilisateurs de choisir le meilleur modèle pour leurs besoins spécifiques.
- Intégration Facile : Avec une API simple, les développeurs peuvent facilement intégrer le serveur dans leurs applications existantes.
- Scalabilité : L'architecture est conçue pour gérer un grand nombre de requêtes, ce qui la rend adaptée aux petits projets comme aux applications à grande échelle.
- Personnalisable : Les utilisateurs peuvent personnaliser le comportement des LLM pour s'adapter à leurs cas d'utilisation spécifiques, améliorant ainsi l'expérience utilisateur.
- Open Source : En tant que projet open-source, il encourage les contributions de la communauté et la transparence.
Comment utiliser Any Chat Completions MCP
- Installation : Commencez par cloner le dépôt depuis GitHub et installer les dépendances nécessaires.
- Configuration : Configurez votre environnement en paramétrant les réglages du serveur pour spécifier quels LLM vous souhaitez utiliser.
- Intégration API : Utilisez les points de terminaison API fournis pour envoyer des requêtes au serveur et recevoir des réponses des LLM.
- Test : Testez l'intégration dans un environnement de développement pour vous assurer que tout fonctionne comme prévu.
- Déploiement : Une fois testé, déployez le serveur dans votre environnement de production et commencez à utiliser les LLM dans vos applications.
Questions Fréquemment Posées
Q : Quel est le cas d'utilisation principal de Any Chat Completions MCP ?
R : Le cas d'utilisation principal est d'améliorer les chatbots et les interfaces conversationnelles en intégrant divers LLM, permettant des interactions plus intelligentes et engageantes.
Q : Any Chat Completions MCP est-il gratuit à utiliser ?
R : Oui, c'est un projet open-source, ce qui signifie qu'il est gratuit à utiliser et à modifier.
Q : Puis-je contribuer au projet ?
R : Absolument ! Les contributions sont les bienvenues. Vous pouvez soumettre des problèmes, des demandes de fonctionnalités ou des demandes de tirage sur le dépôt GitHub.
Q : Quels langages de programmation sont pris en charge ?
R : Le serveur est conçu pour être indépendant du langage, mais l'API peut être facilement accessible en utilisant des langages de programmation populaires comme Python, JavaScript et Java.
Q : Comment signaler des problèmes ou des bugs ?
R : Vous pouvez signaler des problèmes ou des bugs en créant un problème sur le dépôt GitHub, en fournissant des détails sur le problème que vous avez rencontré.
En utilisant Any Chat Completions MCP, les développeurs peuvent considérablement améliorer les capacités conversationnelles de leurs applications, en faisant un outil puissant dans le domaine de l'IA et de l'apprentissage automatique.
Détail
any-chat-completions-mcp MCP Server
Integrate Claude with Any OpenAI SDK Compatible Chat Completion API - OpenAI, Perplexity, Groq, xAI, PyroPrompts and more.
This implements the Model Context Protocol Server. Learn more: https://modelcontextprotocol.io
This is a TypeScript-based MCP server that implements an implementation into any OpenAI SDK Compatible Chat Completions API.
It has one tool, chat
which relays a question to a configured AI Chat Provider.
<a href="https://glama.ai/mcp/servers/nuksdrfb55"><img width="380" height="200" src="https://glama.ai/mcp/servers/nuksdrfb55/badge" /></a>
Development
Install dependencies:
npm install
Build the server:
npm run build
For development with auto-rebuild:
npm run watch
Installation
To add OpenAI to Claude Desktop, add the server config:
On MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
On Windows: %APPDATA%/Claude/claude_desktop_config.json
You can use it via npx
in your Claude Desktop configuration like this:
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
Or, if you clone the repo, you can build and use in your Claude Desktop configuration like this:
{
"mcpServers": {
"chat-openai": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
You can add multiple providers by referencing the same MCP server multiple times, but with different env arguments:
{
"mcpServers": {
"chat-pyroprompts": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "PYROPROMPTS_KEY",
"AI_CHAT_NAME": "PyroPrompts",
"AI_CHAT_MODEL": "ash",
"AI_CHAT_BASE_URL": "https://api.pyroprompts.com/openaiv1"
}
},
"chat-perplexity": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "PERPLEXITY_KEY",
"AI_CHAT_NAME": "Perplexity",
"AI_CHAT_MODEL": "sonar",
"AI_CHAT_BASE_URL": "https://api.perplexity.ai"
}
},
"chat-openai": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
With these three, you'll see a tool for each in the Claude Desktop Home:
And then you can chat with other LLMs and it shows in chat like this:
Or, configure in LibreChat like:
chat-perplexity:
type: stdio
command: npx
args:
- -y
- @pyroprompts/any-chat-completions-mcp
env:
AI_CHAT_KEY: "pplx-012345679"
AI_CHAT_NAME: Perplexity
AI_CHAT_MODEL: sonar
AI_CHAT_BASE_URL: "https://api.perplexity.ai"
PATH: '/usr/local/bin:/usr/bin:/bin'
And it shows in LibreChat:
Installing via Smithery
To install Any OpenAI Compatible API Integrations for Claude Desktop automatically via Smithery:
npx -y @smithery/cli install any-chat-completions-mcp-server --client claude
Debugging
Since MCP servers communicate over stdio, debugging can be challenging. We recommend using the MCP Inspector, which is available as a package script:
npm run inspector
The Inspector will provide a URL to access debugging tools in your browser.
Acknowledgements
- Obviously the modelcontextprotocol and Anthropic team for the MCP Specification and integration into Claude Desktop. https://modelcontextprotocol.io/introduction
- PyroPrompts for sponsoring this project. Use code
CLAUDEANYCHAT
for 20 free automation credits on Pyroprompts.
Configuration du serveur
{
"mcpServers": {
"any-chat-completions-mcp": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--pyroprompts--any-chat-completions-mcp--any-chat-completions-mcp",
"npm run start"
],
"env": {
"AI_CHAT_KEY": "ai-chat-key",
"AI_CHAT_NAME": "ai-chat-name",
"AI_CHAT_MODEL": "ai-chat-model",
"AI_CHAT_BASE_URL": "ai-chat-base-url"
}
}
}
}