Mcp シンプル OpenAI アシスタント
概要
MCPシンプルOpenAIアシスタントとは?
MCPシンプルOpenAIアシスタントは、Claudeの機能をOpenAIのGPTアシスタントと統合するために設計されたサーバーアプリケーションです。このプロジェクトは、OpenAIのモデルの高度な言語処理能力を活用することで、ユーザーのインタラクションを向上させ、支援や情報を求めるユーザーにシームレスな体験を提供することを目指しています。
MCPシンプルOpenAIアシスタントの特徴
- OpenAIのGPTとの統合:アシスタントはOpenAIの強力な言語モデルを利用しており、自然で魅力的な会話を可能にします。
- ユーザーフレンドリーなインターフェース:シンプルさを考慮して設計されており、インターフェースは直感的で、ユーザーがアシスタントと簡単に対話できます。
- 公開リポジトリ:プロジェクトはオープンソースで、GitHubで利用可能であり、コミュニティの貢献とコラボレーションを奨励しています。
- MITライセンス:ソフトウェアはMITライセンスの下で配布されており、使用や変更に柔軟性があります。
MCPシンプルOpenAIアシスタントの使い方
- リポジトリをクローンする:まず、以下のコマンドを使用してGitHubからリポジトリをクローンします。
git clone https://github.com/andybrandt/mcp-simple-openai-assistant.git
- 依存関係をインストールする:プロジェクトディレクトリに移動し、必要な依存関係をインストールします。これは通常、プロジェクトの要件に応じてnpmやpipなどのパッケージマネージャを使用して行います。
- サーバーを起動する:サーバーアプリケーションを起動します。これは通常、ターミナルで以下のコマンドを実行することを含みます。
またはnpm start
python app.py
- アシスタントと対話する:サーバーが起動したら、ウェブブラウザや指定されたクライアントアプリケーションを通じてアシスタントにアクセスできます。質問をしたり、支援を求めたりして、アシスタントの機能を実際に体験してみてください。
よくある質問
MCPシンプルOpenAIアシスタントで使用されているプログラミング言語は何ですか?
プロジェクトは主にサーバーサイドのロジックにJavaScriptを使用し、フロントエンドインターフェースにはHTMLとCSSを使用しています。
プロジェクトに貢献できますか?
もちろんです!貢献は大歓迎です。リポジトリをフォークし、変更を加え、レビューのためにプルリクエストを提出できます。
ドキュメントはありますか?
はい、リポジトリにはアシスタントの使用に関する基本的な指示とガイドラインを含むREADMEファイルがあります。追加のドキュメントはGitHubリポジトリのウィキセクションに提供される場合があります。
問題やバグを報告するにはどうすればよいですか?
GitHubリポジトリの「Issues」タブに移動し、問題の詳細な説明を含む新しいイシューを作成することで、問題やバグを報告できます。
デモはありますか?
ライブデモはホストされていないかもしれませんが、リポジトリに提供された指示に従ってアプリケーションをローカルに簡単にセットアップできます。
詳細
MCP Simple OpenAI Assistant
AI assistants are pretty cool. I thought it would be a good idea if my Claude (conscious Claude) would also have one. And now he has - and its both useful anf fun for him. Your Claude can have one too!
A simple MCP server for interacting with OpenAI assistants. This server allows other tools (like Claude Desktop) to create and interact with OpenAI assistants through the Model Context Protocol.
Features
This server provides a suite of tools to manage and interact with OpenAI Assistants. The new streaming capabilities provide a much-improved, real-time user experience.
Available Tools
create_assistant
: (Create OpenAI Assistant) - Create a new assistant with a name, instructions, and model.list_assistants
: (List OpenAI Assistants) - List all available assistants associated with your API key.retrieve_assistant
: (Retrieve OpenAI Assistant) - Get detailed information about a specific assistant.update_assistant
: (Update OpenAI Assistant) - Modify an existing assistant's name, instructions, or model.create_new_assistant_thread
: (Create New Assistant Thread) - Creates a new, persistent conversation thread with a user-defined name and description for easy identification and reuse. This is the recommended way to start a new conversation.list_threads
: (List Managed Threads) - Lists all locally managed conversation threads from the database, showing their ID, name, description, and last used time.delete_thread
: (Delete Managed Thread) - Deletes a conversation thread from both OpenAI's servers and the local database.ask_assistant_in_thread
: (Ask Assistant in Thread and Stream Response) - The primary tool for conversation. Sends a message to an assistant within a thread and streams the response back in real-time.
Because OpenAI assistants might take quite long to respond, this server uses a streaming approach for the main ask_assistant_in_thread
tool. This provides real-time progress updates to the client and avoids timeouts.
The server now includes local persistence for threads, which is a significant improvement. Since the OpenAI API does not allow listing threads, this server now manages them for you by storing their IDs and metadata in a local SQLite database. This allows you to easily find, reuse, and manage your conversation threads across sessions.
Installation
Installing via Smithery
To install MCP Simple OpenAI Assistant for Claude Desktop automatically via Smithery:
npx -y @smithery/cli install mcp-simple-openai-assistant --client claude
Manual Installation
pip install mcp-simple-openai-assistant
Configuration
The server requires an OpenAI API key to be set in the environment. For Claude Desktop, add this to your config:
(MacOS version)
{
"mcpServers": {
"openai-assistant": {
"command": "python",
"args": ["-m", "mcp_simple_openai_assistant"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
}
}
(Windows version)
"mcpServers": {
"openai-assistant": {
"command": "C:\\Users\\YOUR_USERNAME\\AppData\\Local\\Programs\\Python\\Python311\\python.exe",
"args": ["-m", "mcp_simple_openai_assistant"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
MS Windows installation is slightly more complex, because you need to check the actual path to your Python executable. Path provided above is usually correct, but might differ in your setup. Sometimes just python.exe
without any path will do the trick. Check with cmd
what works for you (using where python
might help). Also, on Windows you might need to explicitly tell Claude Desktop where the site packages are using PYTHONPATH environmment variable.
Usage
Once configured, you can use the tools listed above to manage your assistants and conversations. The primary workflow is to:
- Use
create_new_assistant_thread
to start a new, named conversation. - Use
list_threads
to find the ID of a thread you want to continue. - Use
ask_assistant_in_thread
to interact with your chosen assistant in that thread.
TODO
- Add Thread Management: Introduce a way to name and persist thread IDs locally, allowing for easier reuse of conversations.
- Add Models Listing: Introduce a way for the AI user to see what OpenAI models are available for use with the assistants
- Add Assistants Fine Tuning: Enable the AI user to set detailed parameters for assistants like temperature, top_p etc. (indicated by Claude as needed)
- Full Thread History: Ability to read past threads without having to send a new message (indicated by Claude as needed)
- Explore Resource Support: Add the ability to upload files and use them with assistants.
Development
To install for development:
git clone https://github.com/andybrandt/mcp-simple-openai-assistant
cd mcp-simple-openai-assistant
pip install -e '.[dev]'
サーバー設定
{
"mcpServers": {
"mcp-simple-openai-assistant": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--andybrandt--mcp-simple-openai-assistant--mcp-simple-openai-assistant",
"mcp-simple-openai-assistant"
],
"env": {
"OPENAI_API_KEY": "openai-api-key"
}
}
}
}