Alle Chat-Vervollständigungen Mcp Mcp-Server
MCP-Server zur Verwendung von beliebigen LLM als Werkzeug
Übersicht
Was ist Any Chat Completions MCP?
Any Chat Completions MCP ist ein vielseitiger Server, der entwickelt wurde, um jedes große Sprachmodell (LLM) als Werkzeug zu nutzen. Diese innovative Plattform ermöglicht es Entwicklern und Nutzern, verschiedene LLMs in ihre Anwendungen zu integrieren, wodurch die Fähigkeiten von Chatbots und anderen Konversationsschnittstellen verbessert werden. Durch die Nutzung der Leistungsfähigkeit von LLMs können Nutzer ansprechendere und intelligentere Interaktionen schaffen, was es zu einer wertvollen Ressource für Unternehmen und Entwickler macht.
Funktionen von Any Chat Completions MCP
- Multi-LLM-Unterstützung: Der Server unterstützt mehrere LLMs, sodass Nutzer das beste Modell für ihre spezifischen Bedürfnisse auswählen können.
- Einfache Integration: Mit einer unkomplizierten API können Entwickler den Server problemlos in ihre bestehenden Anwendungen integrieren.
- Skalierbarkeit: Die Architektur ist so gestaltet, dass sie eine große Anzahl von Anfragen verarbeiten kann, was sie sowohl für kleine Projekte als auch für großangelegte Anwendungen geeignet macht.
- Anpassbar: Nutzer können das Verhalten der LLMs an ihre spezifischen Anwendungsfälle anpassen, um das Benutzererlebnis zu verbessern.
- Open Source: Als Open-Source-Projekt fördert es Gemeinschaftsbeiträge und Transparenz.
So verwenden Sie Any Chat Completions MCP
- Installation: Beginnen Sie damit, das Repository von GitHub zu klonen und die erforderlichen Abhängigkeiten zu installieren.
- Konfiguration: Richten Sie Ihre Umgebung ein, indem Sie die Servereinstellungen konfigurieren, um festzulegen, welche LLMs Sie verwenden möchten.
- API-Integration: Verwenden Sie die bereitgestellten API-Endpunkte, um Anfragen an den Server zu senden und Antworten von den LLMs zu erhalten.
- Testen: Testen Sie die Integration in einer Entwicklungsumgebung, um sicherzustellen, dass alles wie erwartet funktioniert.
- Bereitstellung: Nach dem Testen stellen Sie den Server in Ihrer Produktionsumgebung bereit und beginnen, die LLMs in Ihren Anwendungen zu nutzen.
Häufig gestellte Fragen
F: Was ist der Hauptanwendungsfall für Any Chat Completions MCP?
A: Der Hauptanwendungsfall besteht darin, Chatbots und Konversationsschnittstellen zu verbessern, indem verschiedene LLMs integriert werden, was intelligentere und ansprechendere Interaktionen ermöglicht.
F: Ist Any Chat Completions MCP kostenlos zu verwenden?
A: Ja, es handelt sich um ein Open-Source-Projekt, was bedeutet, dass es kostenlos zu verwenden und zu modifizieren ist.
F: Kann ich zu dem Projekt beitragen?
A: Absolut! Beiträge sind willkommen. Sie können Probleme, Funktionsanfragen oder Pull-Requests im GitHub-Repository einreichen.
F: Welche Programmiersprachen werden unterstützt?
A: Der Server ist so konzipiert, dass er sprachunabhängig ist, aber die API kann leicht mit gängigen Programmiersprachen wie Python, JavaScript und Java angesprochen werden.
F: Wie melde ich Probleme oder Fehler?
A: Sie können Probleme oder Fehler melden, indem Sie ein Issue im GitHub-Repository erstellen und Details zu dem Problem angeben, auf das Sie gestoßen sind.
Durch die Nutzung von Any Chat Completions MCP können Entwickler die Konversationsfähigkeiten ihrer Anwendungen erheblich verbessern, was es zu einem leistungsstarken Werkzeug im Bereich der KI und des maschinellen Lernens macht.
Detail
any-chat-completions-mcp MCP Server
Integrate Claude with Any OpenAI SDK Compatible Chat Completion API - OpenAI, Perplexity, Groq, xAI, PyroPrompts and more.
This implements the Model Context Protocol Server. Learn more: https://modelcontextprotocol.io
This is a TypeScript-based MCP server that implements an implementation into any OpenAI SDK Compatible Chat Completions API.
It has one tool, chat
which relays a question to a configured AI Chat Provider.
<a href="https://glama.ai/mcp/servers/nuksdrfb55"><img width="380" height="200" src="https://glama.ai/mcp/servers/nuksdrfb55/badge" /></a>
Development
Install dependencies:
npm install
Build the server:
npm run build
For development with auto-rebuild:
npm run watch
Installation
To add OpenAI to Claude Desktop, add the server config:
On MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
On Windows: %APPDATA%/Claude/claude_desktop_config.json
You can use it via npx
in your Claude Desktop configuration like this:
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
Or, if you clone the repo, you can build and use in your Claude Desktop configuration like this:
{
"mcpServers": {
"chat-openai": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
You can add multiple providers by referencing the same MCP server multiple times, but with different env arguments:
{
"mcpServers": {
"chat-pyroprompts": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "PYROPROMPTS_KEY",
"AI_CHAT_NAME": "PyroPrompts",
"AI_CHAT_MODEL": "ash",
"AI_CHAT_BASE_URL": "https://api.pyroprompts.com/openaiv1"
}
},
"chat-perplexity": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "PERPLEXITY_KEY",
"AI_CHAT_NAME": "Perplexity",
"AI_CHAT_MODEL": "sonar",
"AI_CHAT_BASE_URL": "https://api.perplexity.ai"
}
},
"chat-openai": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
With these three, you'll see a tool for each in the Claude Desktop Home:
And then you can chat with other LLMs and it shows in chat like this:
Or, configure in LibreChat like:
chat-perplexity:
type: stdio
command: npx
args:
- -y
- @pyroprompts/any-chat-completions-mcp
env:
AI_CHAT_KEY: "pplx-012345679"
AI_CHAT_NAME: Perplexity
AI_CHAT_MODEL: sonar
AI_CHAT_BASE_URL: "https://api.perplexity.ai"
PATH: '/usr/local/bin:/usr/bin:/bin'
And it shows in LibreChat:
Installing via Smithery
To install Any OpenAI Compatible API Integrations for Claude Desktop automatically via Smithery:
npx -y @smithery/cli install any-chat-completions-mcp-server --client claude
Debugging
Since MCP servers communicate over stdio, debugging can be challenging. We recommend using the MCP Inspector, which is available as a package script:
npm run inspector
The Inspector will provide a URL to access debugging tools in your browser.
Acknowledgements
- Obviously the modelcontextprotocol and Anthropic team for the MCP Specification and integration into Claude Desktop. https://modelcontextprotocol.io/introduction
- PyroPrompts for sponsoring this project. Use code
CLAUDEANYCHAT
for 20 free automation credits on Pyroprompts.
Serverkonfiguration
{
"mcpServers": {
"any-chat-completions-mcp": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--pyroprompts--any-chat-completions-mcp--any-chat-completions-mcp",
"npm run start"
],
"env": {
"AI_CHAT_KEY": "ai-chat-key",
"AI_CHAT_NAME": "ai-chat-name",
"AI_CHAT_MODEL": "ai-chat-model",
"AI_CHAT_BASE_URL": "ai-chat-base-url"
}
}
}
}
Projektinfo
Alle Chat Alternative
Für einige Alternativen zu Alle Chat bieten wir dir passende Seiten nach Kategorie sortiert.
🚀 Die einfachste, kostenlose und Open-Source Tailwind CSS Komponentenbibliothek mit semantischen Klassen.
Ein Model Context Protocol-Server für die veröffentlichte Daten-API von Chess.com. Dies bietet Zugriff auf die Spieldaten von Chess.com, Spielaufzeichnungen und andere öffentliche Informationen über standardisierte MCP-Schnittstellen, die es KI-Assistenten ermöglichen, Schachinformationen zu durchsuchen und zu analysieren.
Ein Model Context Protocol (MCP) Server, der KI-Assistenten ermöglicht, Azure Data Explorer-Datenbanken über standardisierte Schnittstellen abzufragen und zu analysieren.
mcp-gitee ist eine Implementierung des Model Context Protocol (MCP) Servers für Gitee. Es bietet eine Reihe von Werkzeugen, die mit der API von Gitee interagieren, sodass KI-Assistenten Repositories, Issues, Pull-Requests usw. verwalten können.
Unity-Katalog KI-Modell Kontextprotokoll-Server