Cualquier finalización de chat Mcp Servidor Mcp
Servidor MCP para usar cualquier LLM como herramienta
Resumen
¿Qué es Any Chat Completions MCP?
Any Chat Completions MCP es un servidor versátil diseñado para utilizar cualquier Modelo de Lenguaje Grande (LLM) como herramienta. Esta plataforma innovadora permite a desarrolladores y usuarios integrar varios LLM en sus aplicaciones, mejorando las capacidades de chatbots y otras interfaces conversacionales. Al aprovechar el poder de los LLM, los usuarios pueden crear interacciones más atractivas e inteligentes, convirtiéndolo en un recurso valioso para empresas y desarrolladores por igual.
Características de Any Chat Completions MCP
- Soporte Multi-LLM: El servidor soporta múltiples LLM, permitiendo a los usuarios elegir el mejor modelo para sus necesidades específicas.
- Integración Fácil: Con una API sencilla, los desarrolladores pueden integrar fácilmente el servidor en sus aplicaciones existentes.
- Escalabilidad: La arquitectura está diseñada para manejar un gran número de solicitudes, lo que la hace adecuada tanto para proyectos pequeños como para aplicaciones a gran escala.
- Personalizable: Los usuarios pueden personalizar el comportamiento de los LLM para adaptarse a sus casos de uso específicos, mejorando la experiencia del usuario.
- Código Abierto: Al ser un proyecto de código abierto, fomenta las contribuciones de la comunidad y la transparencia.
Cómo Usar Any Chat Completions MCP
- Instalación: Comienza clonando el repositorio desde GitHub e instalando las dependencias necesarias.
- Configuración: Configura tu entorno ajustando la configuración del servidor para especificar qué LLM deseas utilizar.
- Integración de API: Utiliza los puntos finales de API proporcionados para enviar solicitudes al servidor y recibir respuestas de los LLM.
- Pruebas: Prueba la integración en un entorno de desarrollo para asegurarte de que todo funcione como se espera.
- Despliegue: Una vez probado, despliega el servidor en tu entorno de producción y comienza a utilizar los LLM en tus aplicaciones.
Preguntas Frecuentes
P: ¿Cuál es el caso de uso principal de Any Chat Completions MCP?
R: El caso de uso principal es mejorar chatbots e interfaces conversacionales integrando varios LLM, permitiendo interacciones más inteligentes y atractivas.
P: ¿Es Any Chat Completions MCP gratuito para usar?
R: Sí, es un proyecto de código abierto, lo que significa que es gratuito para usar y modificar.
P: ¿Puedo contribuir al proyecto?
R: ¡Absolutamente! Las contribuciones son bienvenidas. Puedes enviar problemas, solicitudes de características o solicitudes de extracción en el repositorio de GitHub.
P: ¿Qué lenguajes de programación son compatibles?
R: El servidor está diseñado para ser independiente del lenguaje, pero la API se puede acceder fácilmente utilizando lenguajes de programación populares como Python, JavaScript y Java.
P: ¿Cómo informo sobre problemas o errores?
R: Puedes informar sobre problemas o errores creando un problema en el repositorio de GitHub, proporcionando detalles sobre el problema que encontraste.
Al utilizar Any Chat Completions MCP, los desarrolladores pueden mejorar significativamente las capacidades conversacionales de sus aplicaciones, convirtiéndolo en una herramienta poderosa en el ámbito de la IA y el aprendizaje automático.
Detalle
any-chat-completions-mcp MCP Server
Integrate Claude with Any OpenAI SDK Compatible Chat Completion API - OpenAI, Perplexity, Groq, xAI, PyroPrompts and more.
This implements the Model Context Protocol Server. Learn more: https://modelcontextprotocol.io
This is a TypeScript-based MCP server that implements an implementation into any OpenAI SDK Compatible Chat Completions API.
It has one tool, chat which relays a question to a configured AI Chat Provider.
<a href="https://glama.ai/mcp/servers/nuksdrfb55"><img width="380" height="200" src="https://glama.ai/mcp/servers/nuksdrfb55/badge" /></a>
Development
Install dependencies:
npm install
Build the server:
npm run build
For development with auto-rebuild:
npm run watch
Installation
To add OpenAI to Claude Desktop, add the server config:
On MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
On Windows: %APPDATA%/Claude/claude_desktop_config.json
You can use it via npx in your Claude Desktop configuration like this:
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
Or, if you clone the repo, you can build and use in your Claude Desktop configuration like this:
{
"mcpServers": {
"chat-openai": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
You can add multiple providers by referencing the same MCP server multiple times, but with different env arguments:
{
"mcpServers": {
"chat-pyroprompts": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "PYROPROMPTS_KEY",
"AI_CHAT_NAME": "PyroPrompts",
"AI_CHAT_MODEL": "ash",
"AI_CHAT_BASE_URL": "https://api.pyroprompts.com/openaiv1"
}
},
"chat-perplexity": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "PERPLEXITY_KEY",
"AI_CHAT_NAME": "Perplexity",
"AI_CHAT_MODEL": "sonar",
"AI_CHAT_BASE_URL": "https://api.perplexity.ai"
}
},
"chat-openai": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
With these three, you'll see a tool for each in the Claude Desktop Home:

And then you can chat with other LLMs and it shows in chat like this:

Or, configure in LibreChat like:
chat-perplexity:
type: stdio
command: npx
args:
- -y
- @pyroprompts/any-chat-completions-mcp
env:
AI_CHAT_KEY: "pplx-012345679"
AI_CHAT_NAME: Perplexity
AI_CHAT_MODEL: sonar
AI_CHAT_BASE_URL: "https://api.perplexity.ai"
PATH: '/usr/local/bin:/usr/bin:/bin'
And it shows in LibreChat:

Installing via Smithery
To install Any OpenAI Compatible API Integrations for Claude Desktop automatically via Smithery:
npx -y @smithery/cli install any-chat-completions-mcp-server --client claude
Debugging
Since MCP servers communicate over stdio, debugging can be challenging. We recommend using the MCP Inspector, which is available as a package script:
npm run inspector
The Inspector will provide a URL to access debugging tools in your browser.
Acknowledgements
- Obviously the modelcontextprotocol and Anthropic team for the MCP Specification and integration into Claude Desktop. https://modelcontextprotocol.io/introduction
- PyroPrompts for sponsoring this project. Use code
CLAUDEANYCHATfor 20 free automation credits on Pyroprompts.
Configuración del Servidor
{
"mcpServers": {
"any-chat-completions-mcp": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--pyroprompts--any-chat-completions-mcp--any-chat-completions-mcp",
"npm run start"
],
"env": {
"AI_CHAT_KEY": "ai-chat-key",
"AI_CHAT_NAME": "ai-chat-name",
"AI_CHAT_MODEL": "ai-chat-model",
"AI_CHAT_BASE_URL": "ai-chat-base-url"
}
}
}
}Información del Proyecto
Cualquier finalizaci... Alternativas
Para algunas alternativas a Cualquier finalizaci... que puedas necesitar, te ofrecemos sitios divididos por categoría.
Búsqueda en la web utilizando la búsqueda gratuita de Google (NO SE REQUIEREN CLAVES DE API)
🚀 La biblioteca de componentes Tailwind CSS más fácil, gratuita y de código abierto con clases semánticas.
Un servidor de Protocolo de Contexto de Modelo para la API de Datos Publicados de Chess.com. Esto proporciona acceso a los datos de jugadores de Chess.com, registros de partidas y otra información pública a través de interfaces MCP estandarizadas, permitiendo a los asistentes de IA buscar y analizar información sobre ajedrez.
Un servidor de Protocolo de Contexto de Modelo (MCP) que permite a los asistentes de IA consultar y analizar bases de datos de Azure Data Explorer a través de interfaces estandarizadas.
mcp-gitee es una implementación del Protocolo de Contexto de Modelo (MCP) para Gitee. Proporciona un conjunto de herramientas que interactúan con la API de Gitee, permitiendo a los asistentes de IA gestionar repositorios, problemas, solicitudes de extracción, etc.
Mcp Servidor Airbnb
Servidor del Protocolo de Contexto del Modelo de IA del Catálogo de Unity
