任意のチャット完了 Mcp Mcp サーバー
概要
Any Chat Completions MCPとは?
Any Chat Completions MCPは、あらゆる大規模言語モデル(LLM)をツールとして利用するために設計された多目的サーバーです。この革新的なプラットフォームは、開発者やユーザーがさまざまなLLMをアプリケーションに統合できるようにし、チャットボットやその他の会話インターフェースの機能を向上させます。LLMの力を活用することで、ユーザーはより魅力的で知的なインタラクションを作成でき、ビジネスや開発者にとって貴重なリソースとなります。
Any Chat Completions MCPの特徴
- マルチLLMサポート:サーバーは複数のLLMをサポートしており、ユーザーは特定のニーズに最適なモデルを選択できます。
- 簡単な統合:シンプルなAPIを使用することで、開発者は既存のアプリケーションにサーバーを簡単に統合できます。
- スケーラビリティ:アーキテクチャは大量のリクエストを処理できるように設計されており、小規模プロジェクトから大規模アプリケーションまで適しています。
- カスタマイズ可能:ユーザーは特定のユースケースに合わせてLLMの動作をカスタマイズでき、ユーザー体験を向上させます。
- オープンソース:オープンソースプロジェクトであるため、コミュニティの貢献と透明性を促進します。
Any Chat Completions MCPの使い方
- インストール:まず、GitHubからリポジトリをクローンし、必要な依存関係をインストールします。
- 設定:サーバー設定を構成して、使用したいLLMを指定することで環境をセットアップします。
- API統合:提供されたAPIエンドポイントを使用して、サーバーにリクエストを送信し、LLMからのレスポンスを受け取ります。
- テスト:開発環境で統合をテストして、すべてが期待通りに機能していることを確認します。
- デプロイ:テストが完了したら、サーバーを本番環境にデプロイし、アプリケーションでLLMを利用し始めます。
よくある質問
Q: Any Chat Completions MCPの主な使用ケースは何ですか?
A: 主な使用ケースは、さまざまなLLMを統合することでチャットボットや会話インターフェースを強化し、より知的で魅力的なインタラクションを可能にすることです。
Q: Any Chat Completions MCPは無料で使用できますか?
A: はい、これはオープンソースプロジェクトであり、無料で使用および変更できます。
Q: プロジェクトに貢献できますか?
A: もちろんです!貢献は歓迎されます。GitHubリポジトリで問題、機能リクエスト、またはプルリクエストを提出できます。
Q: どのプログラミング言語がサポートされていますか?
A: サーバーは言語に依存しないように設計されていますが、APIはPython、JavaScript、Javaなどの人気のあるプログラミング言語を使用して簡単にアクセスできます。
Q: 問題やバグを報告するにはどうすればよいですか?
A: GitHubリポジトリで問題を作成し、遭遇した問題の詳細を提供することで、問題やバグを報告できます。
Any Chat Completions MCPを利用することで、開発者はアプリケーションの会話能力を大幅に向上させることができ、AIや機械学習の分野で強力なツールとなります。
詳細
any-chat-completions-mcp MCP Server
Integrate Claude with Any OpenAI SDK Compatible Chat Completion API - OpenAI, Perplexity, Groq, xAI, PyroPrompts and more.
This implements the Model Context Protocol Server. Learn more: https://modelcontextprotocol.io
This is a TypeScript-based MCP server that implements an implementation into any OpenAI SDK Compatible Chat Completions API.
It has one tool, chat
which relays a question to a configured AI Chat Provider.
<a href="https://glama.ai/mcp/servers/nuksdrfb55"><img width="380" height="200" src="https://glama.ai/mcp/servers/nuksdrfb55/badge" /></a>
Development
Install dependencies:
npm install
Build the server:
npm run build
For development with auto-rebuild:
npm run watch
Installation
To add OpenAI to Claude Desktop, add the server config:
On MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
On Windows: %APPDATA%/Claude/claude_desktop_config.json
You can use it via npx
in your Claude Desktop configuration like this:
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
Or, if you clone the repo, you can build and use in your Claude Desktop configuration like this:
{
"mcpServers": {
"chat-openai": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
You can add multiple providers by referencing the same MCP server multiple times, but with different env arguments:
{
"mcpServers": {
"chat-pyroprompts": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "PYROPROMPTS_KEY",
"AI_CHAT_NAME": "PyroPrompts",
"AI_CHAT_MODEL": "ash",
"AI_CHAT_BASE_URL": "https://api.pyroprompts.com/openaiv1"
}
},
"chat-perplexity": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "PERPLEXITY_KEY",
"AI_CHAT_NAME": "Perplexity",
"AI_CHAT_MODEL": "sonar",
"AI_CHAT_BASE_URL": "https://api.perplexity.ai"
}
},
"chat-openai": {
"command": "node",
"args": [
"/path/to/any-chat-completions-mcp/build/index.js"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
With these three, you'll see a tool for each in the Claude Desktop Home:
And then you can chat with other LLMs and it shows in chat like this:
Or, configure in LibreChat like:
chat-perplexity:
type: stdio
command: npx
args:
- -y
- @pyroprompts/any-chat-completions-mcp
env:
AI_CHAT_KEY: "pplx-012345679"
AI_CHAT_NAME: Perplexity
AI_CHAT_MODEL: sonar
AI_CHAT_BASE_URL: "https://api.perplexity.ai"
PATH: '/usr/local/bin:/usr/bin:/bin'
And it shows in LibreChat:
Installing via Smithery
To install Any OpenAI Compatible API Integrations for Claude Desktop automatically via Smithery:
npx -y @smithery/cli install any-chat-completions-mcp-server --client claude
Debugging
Since MCP servers communicate over stdio, debugging can be challenging. We recommend using the MCP Inspector, which is available as a package script:
npm run inspector
The Inspector will provide a URL to access debugging tools in your browser.
Acknowledgements
- Obviously the modelcontextprotocol and Anthropic team for the MCP Specification and integration into Claude Desktop. https://modelcontextprotocol.io/introduction
- PyroPrompts for sponsoring this project. Use code
CLAUDEANYCHAT
for 20 free automation credits on Pyroprompts.
サーバー設定
{
"mcpServers": {
"any-chat-completions-mcp": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--pyroprompts--any-chat-completions-mcp--any-chat-completions-mcp",
"npm run start"
],
"env": {
"AI_CHAT_KEY": "ai-chat-key",
"AI_CHAT_NAME": "ai-chat-name",
"AI_CHAT_MODEL": "ai-chat-model",
"AI_CHAT_BASE_URL": "ai-chat-base-url"
}
}
}
}