Alle Chat-Vervollständigungen Mcp Mcp-Server

Erstellt vonpyropromptspyroprompts

MCP-Server zur Verwendung von beliebigen LLM als Werkzeug

Übersicht

Was ist Any Chat Completions MCP?

Any Chat Completions MCP ist ein vielseitiger Server, der entwickelt wurde, um jedes große Sprachmodell (LLM) als Werkzeug zu nutzen. Diese innovative Plattform ermöglicht es Entwicklern und Nutzern, verschiedene LLMs in ihre Anwendungen zu integrieren, wodurch die Fähigkeiten von Chatbots und anderen Konversationsschnittstellen verbessert werden. Durch die Nutzung der Leistungsfähigkeit von LLMs können Nutzer ansprechendere und intelligentere Interaktionen schaffen, was es zu einer wertvollen Ressource für Unternehmen und Entwickler macht.

Funktionen von Any Chat Completions MCP

  • Multi-LLM-Unterstützung: Der Server unterstützt mehrere LLMs, sodass Nutzer das beste Modell für ihre spezifischen Bedürfnisse auswählen können.
  • Einfache Integration: Mit einer unkomplizierten API können Entwickler den Server problemlos in ihre bestehenden Anwendungen integrieren.
  • Skalierbarkeit: Die Architektur ist so gestaltet, dass sie eine große Anzahl von Anfragen verarbeiten kann, was sie sowohl für kleine Projekte als auch für großangelegte Anwendungen geeignet macht.
  • Anpassbar: Nutzer können das Verhalten der LLMs an ihre spezifischen Anwendungsfälle anpassen, um das Benutzererlebnis zu verbessern.
  • Open Source: Als Open-Source-Projekt fördert es Gemeinschaftsbeiträge und Transparenz.

So verwenden Sie Any Chat Completions MCP

  1. Installation: Beginnen Sie damit, das Repository von GitHub zu klonen und die erforderlichen Abhängigkeiten zu installieren.
  2. Konfiguration: Richten Sie Ihre Umgebung ein, indem Sie die Servereinstellungen konfigurieren, um festzulegen, welche LLMs Sie verwenden möchten.
  3. API-Integration: Verwenden Sie die bereitgestellten API-Endpunkte, um Anfragen an den Server zu senden und Antworten von den LLMs zu erhalten.
  4. Testen: Testen Sie die Integration in einer Entwicklungsumgebung, um sicherzustellen, dass alles wie erwartet funktioniert.
  5. Bereitstellung: Nach dem Testen stellen Sie den Server in Ihrer Produktionsumgebung bereit und beginnen, die LLMs in Ihren Anwendungen zu nutzen.

Häufig gestellte Fragen

F: Was ist der Hauptanwendungsfall für Any Chat Completions MCP?

A: Der Hauptanwendungsfall besteht darin, Chatbots und Konversationsschnittstellen zu verbessern, indem verschiedene LLMs integriert werden, was intelligentere und ansprechendere Interaktionen ermöglicht.

F: Ist Any Chat Completions MCP kostenlos zu verwenden?

A: Ja, es handelt sich um ein Open-Source-Projekt, was bedeutet, dass es kostenlos zu verwenden und zu modifizieren ist.

F: Kann ich zu dem Projekt beitragen?

A: Absolut! Beiträge sind willkommen. Sie können Probleme, Funktionsanfragen oder Pull-Requests im GitHub-Repository einreichen.

F: Welche Programmiersprachen werden unterstützt?

A: Der Server ist so konzipiert, dass er sprachunabhängig ist, aber die API kann leicht mit gängigen Programmiersprachen wie Python, JavaScript und Java angesprochen werden.

F: Wie melde ich Probleme oder Fehler?

A: Sie können Probleme oder Fehler melden, indem Sie ein Issue im GitHub-Repository erstellen und Details zu dem Problem angeben, auf das Sie gestoßen sind.

Durch die Nutzung von Any Chat Completions MCP können Entwickler die Konversationsfähigkeiten ihrer Anwendungen erheblich verbessern, was es zu einem leistungsstarken Werkzeug im Bereich der KI und des maschinellen Lernens macht.

Detail

any-chat-completions-mcp MCP Server

Integrate Claude with Any OpenAI SDK Compatible Chat Completion API - OpenAI, Perplexity, Groq, xAI, PyroPrompts and more.

This implements the Model Context Protocol Server. Learn more: https://modelcontextprotocol.io

This is a TypeScript-based MCP server that implements an implementation into any OpenAI SDK Compatible Chat Completions API.

It has one tool, chat which relays a question to a configured AI Chat Provider.

<a href="https://glama.ai/mcp/servers/nuksdrfb55"><img width="380" height="200" src="https://glama.ai/mcp/servers/nuksdrfb55/badge" /></a>

smithery badge

Development

Install dependencies:

npm install

Build the server:

npm run build

For development with auto-rebuild:

npm run watch

Installation

To add OpenAI to Claude Desktop, add the server config:

On MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json

On Windows: %APPDATA%/Claude/claude_desktop_config.json

You can use it via npx in your Claude Desktop configuration like this:

{
  "mcpServers": {
    "chat-openai": {
      "command": "npx",
      "args": [
        "@pyroprompts/any-chat-completions-mcp"
      ],
      "env": {
        "AI_CHAT_KEY": "OPENAI_KEY",
        "AI_CHAT_NAME": "OpenAI",
        "AI_CHAT_MODEL": "gpt-4o",
        "AI_CHAT_BASE_URL": "https://api.openai.com/v1"
      }
    }
  }
}

Or, if you clone the repo, you can build and use in your Claude Desktop configuration like this:


{
  "mcpServers": {
    "chat-openai": {
      "command": "node",
      "args": [
        "/path/to/any-chat-completions-mcp/build/index.js"
      ],
      "env": {
        "AI_CHAT_KEY": "OPENAI_KEY",
        "AI_CHAT_NAME": "OpenAI",
        "AI_CHAT_MODEL": "gpt-4o",
        "AI_CHAT_BASE_URL": "https://api.openai.com/v1"
      }
    }
  }
}

You can add multiple providers by referencing the same MCP server multiple times, but with different env arguments:


{
  "mcpServers": {
    "chat-pyroprompts": {
      "command": "node",
      "args": [
        "/path/to/any-chat-completions-mcp/build/index.js"
      ],
      "env": {
        "AI_CHAT_KEY": "PYROPROMPTS_KEY",
        "AI_CHAT_NAME": "PyroPrompts",
        "AI_CHAT_MODEL": "ash",
        "AI_CHAT_BASE_URL": "https://api.pyroprompts.com/openaiv1"
      }
    },
    "chat-perplexity": {
      "command": "node",
      "args": [
        "/path/to/any-chat-completions-mcp/build/index.js"
      ],
      "env": {
        "AI_CHAT_KEY": "PERPLEXITY_KEY",
        "AI_CHAT_NAME": "Perplexity",
        "AI_CHAT_MODEL": "sonar",
        "AI_CHAT_BASE_URL": "https://api.perplexity.ai"
      }
    },
    "chat-openai": {
      "command": "node",
      "args": [
        "/path/to/any-chat-completions-mcp/build/index.js"
      ],
      "env": {
        "AI_CHAT_KEY": "OPENAI_KEY",
        "AI_CHAT_NAME": "OpenAI",
        "AI_CHAT_MODEL": "gpt-4o",
        "AI_CHAT_BASE_URL": "https://api.openai.com/v1"
      }
    }
  }
}

With these three, you'll see a tool for each in the Claude Desktop Home:

Claude Desktop Home with Chat Tools

And then you can chat with other LLMs and it shows in chat like this:

Claude Chat with OpenAI

Or, configure in LibreChat like:

  chat-perplexity:
    type: stdio
    command: npx
    args:
      - -y
      - @pyroprompts/any-chat-completions-mcp
    env:
      AI_CHAT_KEY: "pplx-012345679"
      AI_CHAT_NAME: Perplexity
      AI_CHAT_MODEL: sonar
      AI_CHAT_BASE_URL: "https://api.perplexity.ai"
      PATH: '/usr/local/bin:/usr/bin:/bin'

And it shows in LibreChat:

LibreChat with Perplexity Chat

Installing via Smithery

To install Any OpenAI Compatible API Integrations for Claude Desktop automatically via Smithery:

npx -y @smithery/cli install any-chat-completions-mcp-server --client claude

Debugging

Since MCP servers communicate over stdio, debugging can be challenging. We recommend using the MCP Inspector, which is available as a package script:

npm run inspector

The Inspector will provide a URL to access debugging tools in your browser.

Acknowledgements

Serverkonfiguration

{
  "mcpServers": {
    "any-chat-completions-mcp": {
      "command": "docker",
      "args": [
        "run",
        "-i",
        "--rm",
        "ghcr.io/metorial/mcp-container--pyroprompts--any-chat-completions-mcp--any-chat-completions-mcp",
        "npm run start"
      ],
      "env": {
        "AI_CHAT_KEY": "ai-chat-key",
        "AI_CHAT_NAME": "ai-chat-name",
        "AI_CHAT_MODEL": "ai-chat-model",
        "AI_CHAT_BASE_URL": "ai-chat-base-url"
      }
    }
  }
}

Projektinfo

Autor
pyroprompts
Erstellt am
Aug 19, 2025
Stern
140
Sprache
JavaScript

Alle Chat Alternative

Für einige Alternativen zu Alle Chat bieten wir dir passende Seiten nach Kategorie sortiert.

Websuche mit kostenloser Google-Suche (KEINE API-KEYS ERFORDERLICH)

Hacker News MCP-Server

Flyonui
@themeselection

🚀 Die einfachste, kostenlose und Open-Source Tailwind CSS Komponentenbibliothek mit semantischen Klassen.

Ein Model Context Protocol-Server für die veröffentlichte Daten-API von Chess.com. Dies bietet Zugriff auf die Spieldaten von Chess.com, Spielaufzeichnungen und andere öffentliche Informationen über standardisierte MCP-Schnittstellen, die es KI-Assistenten ermöglichen, Schachinformationen zu durchsuchen und zu analysieren.

Ein Model Context Protocol (MCP) Server, der KI-Assistenten ermöglicht, Azure Data Explorer-Datenbanken über standardisierte Schnittstellen abzufragen und zu analysieren.

mcp-gitee ist eine Implementierung des Model Context Protocol (MCP) Servers für Gitee. Es bietet eine Reihe von Werkzeugen, die mit der API von Gitee interagieren, sodass KI-Assistenten Repositories, Issues, Pull-Requests usw. verwalten können.

Unity-Katalog KI-Modell Kontextprotokoll-Server

Mehr anzeigen >>