Mcpチャットデスクトップアプリ
MCP(モデルコンテキストプロトコル)を活用して他のLLMとインターフェースするデスクトップチャットアプリ。
概要
chat-mcpとは?
chat-mcpは、モデルコンテキストプロトコル(MCP)を利用したデスクトップチャットアプリケーションで、さまざまな大規模言語モデル(LLM)とのコミュニケーションを促進します。この革新的なアプリケーションにより、ユーザーは複数のAIモデルとシームレスに対話でき、それぞれのモデルのユニークな機能を活用してチャット体験を向上させます。
chat-mcpの特徴
- マルチモデルサポート:chat-mcpはさまざまなLLMに接続でき、ユーザーは自分のニーズに最適なモデルを選択できます。
- ユーザーフレンドリーなインターフェース:アプリケーションはクリーンで直感的なインターフェースを備えており、ユーザーが機能を簡単にナビゲートし利用できるように設計されています。
- リアルタイムコミュニケーション:ユーザーはリアルタイムで会話を行い、接続されたLLMから即座に応答を受け取ることができます。
- カスタマイズ可能な設定:ユーザーは設定を調整して、自分の好みに応じたチャット体験をカスタマイズできます。
- オープンソース:chat-mcpはオープンソースプロジェクトであり、コミュニティの貢献と開発の透明性を促進します。
chat-mcpの使い方
- ダウンロードとインストール:最新バージョンのアプリケーションをダウンロードするには、chat-mcpリポジトリを訪れてください。
- アカウントの設定:画面の指示に従ってアカウントを作成するか、ログインします。
- LLMに接続:利用可能なLLMの中から接続するモデルを選択します。必要に応じてモデルを切り替えることができます。
- チャットを開始:チャットウィンドウに入力して会話を始めます。LLMは提供されたコンテキストに基づいて応答します。
- 機能を探る:カスタマイズ可能な設定を活用して、チャット体験を向上させましょう。
よくある質問
モデルコンテキストプロトコル(MCP)とは?
モデルコンテキストプロトコル(MCP)は、異なるAIモデルがコミュニケーションを行い、コンテキストを共有できるフレームワークで、より一貫性のある文脈に即した会話を可能にします。
chat-mcpは無料で使用できますか?
はい、chat-mcpはオープンソースアプリケーションであり、ダウンロードして使用するのは無料です。希望があれば、開発に貢献することもできます。
chat-mcpプロジェクトに貢献できますか?
もちろんです!貢献は大歓迎です。問題の報告、機能リクエスト、またはプルリクエストをGitHubリポジトリに提出できます。
chat-mcpはどのプラットフォームをサポートしていますか?
chat-mcpはクロスプラットフォームで設計されており、Windows、macOS、Linuxなどの主要なオペレーティングシステムをサポートしています。
バグや問題を報告するにはどうすればよいですか?
バグや問題に遭遇した場合は、リポジトリの問題ページで報告してください。あなたのフィードバックはアプリケーションの改善にとって貴重です。
chat-mcpを利用することで、ユーザーはAIモデルとのインタラクションを向上させ、会話をより魅力的で情報豊かなものにすることができます。
詳細
MCP Chat Desktop App
A Cross-Platform Interface for LLMs
This desktop application utilizes the MCP (Model Context Protocol) to seamlessly connect and interact with various Large Language Models (LLMs). Built on Electron, the app ensures full cross-platform compatibility, enabling smooth operation across different operating systems.
The primary objective of this project is to deliver a clean, minimalistic codebase that simplifies understanding the core principles of MCP. Additionally, it provides a quick and efficient way to test multiple servers and LLMs, making it an ideal tool for developers and researchers alike.
News
This project originated as a modified version of Chat-UI, initially adopting a minimalist code approach to implement core MCP functionality for educational purposes.
Through iterative updates to MCP, I received community feedback advocating for a completely new architecture - one that eliminates third-party CDN dependencies and establishes clearer modular structure to better support derivative development and debugging workflows.
This led to the creation of Tool Unitary User Interface, a restructured desktop application optimized for AI-powered development. Building upon the original foundation, TUUI serves as a practical AI-assisted development paradigm, if you're interested, you can also leverage AI to develop new features for TUUI. The platform employs a strict linting and formatting system to ensure AI-generated code adheres to coding standards.
📢 Update: June 2025
The current project refactoring has been largely completed, and a pre-release version is now available. Please refer to the following documentation for details:
Features
-
Cross-Platform Compatibility: Supports Linux, macOS, and Windows.
-
Flexible Apache-2.0 License: Allows easy modification and building of your own desktop applications.
-
Dynamic LLM Configuration: Compatible with all OpenAI SDK-supported LLMs, enabling quick testing of multiple backends through manual or preset configurations.
-
Multi-Client Management: Configure and manage multiple clients to connect to multiple servers using MCP config.
-
UI Adaptability: The UI can be directly extracted for web use, ensuring consistent ecosystem and interaction logic across web and desktop versions.
Architecture
Adopted a straightforward architecture consistent with the MCP documentation to facilitate a clear understanding of MCP principles by:
How to use
After cloning or downloading this repository:
-
Please modify the
config.json
file located in src/main.
Ensure that thecommand
andpath
specified in theargs
are valid. -
Please ensure that Node.js is installed on your system.
You can verify this by runningnode -v
andnpm -v
in your terminal to check their respective versions. -
npm install
-
npm start
Configuration
Create a .json
file and paste the following content into it. This file can then be provided as the interface configuration for the Chat UI.
-
gtp-api.json
{ "chatbotStore": { "apiKey": "", "url": "https://api.aiql.com", "path": "/v1/chat/completions", "model": "gpt-4o-mini", "max_tokens_value": "", "mcp": true }, "defaultChoiceStore": { "model": [ "gpt-4o-mini", "gpt-4o", "gpt-4", "gpt-4-turbo" ] } }
You can replace the 'url' if you have direct access to the OpenAI API.
Alternatively, you can also use another API endpoint that supports function calls:
-
qwen-api.json
{ "chatbotStore": { "apiKey": "", "url": "https://dashscope.aliyuncs.com/compatible-mode", "path": "/v1/chat/completions", "model": "qwen-turbo", "max_tokens_value": "", "mcp": true }, "defaultChoiceStore": { "model": [ "qwen-turbo", "qwen-plus", "qwen-max" ] } }
-
deepinfra.json
{ "chatbotStore": { "apiKey": "", "url": "https://api.deepinfra.com", "path": "/v1/openai/chat/completions", "model": "meta-llama/Meta-Llama-3.1-70B-Instruct", "max_tokens_value": "32000", "mcp": true }, "defaultChoiceStore": { "model": [ "meta-llama/Meta-Llama-3.1-70B-Instruct", "meta-llama/Meta-Llama-3.1-405B-Instruct", "meta-llama/Meta-Llama-3.1-8B-Instruct" ] } }
Build Application
You can build your own desktop application by:
npm run build-app
This CLI helps you build and package your application for your current OS, with artifacts stored in the /artifacts directory.
For Debian/Ubuntu users experiencing RPM build issues, try one of the following solutions:
-
Edit
package.json
to skip the RPM build step. Or -
Install
rpm
usingsudo apt-get install rpm
(You may need to runsudo apt update
to ensure your package list is up-to-date)
Troubleshooting
Error: spawn npx ENOENT - ISSUE 40
Modify the config.json
in src/main
On windows, npx may not work, please refer my workaround: ISSUE 101
- Or you can use
node
in config.json:{ "mcpServers": { "filesystem": { "command": "node", "args": [ "node_modules/@modelcontextprotocol/server-filesystem/dist/index.js", "D:/Github/mcp-test" ] } } }
Please ensure that the provided path is valid, especially if you are using a relative path. It is highly recommended to provide an absolute path for better clarity and accuracy.
By default, I will install server-everything
, server-filesystem
, and server-puppeteer
for test purposes. However, you can install additional server libraries or use npx
to utilize other server libraries as needed.
Installation timeout
Generally, after executing npm install
for the entire project, the total size of files in the node_modules
directory typically exceeds 500MB.
If the installation process stalls at less than 300MB and the progress bar remains static, it is likely due to a timeout during the installation of the latter part, specifically Electron.
This issue often arises because the download speed from Electron's default server is excessively slow or even inaccessible in certain regions. To resolve this, you can modify the environment or global variable ELECTRON_MIRROR
to switch to an Electron mirror site that is accessible from your location.
Electron builder timeout
When using electron-builder to package files, it automatically downloads several large release packages from GitHub. If the network connection is unstable, this process may be interrupted or timeout.
On Windows, you may need to clear the cache located under the electron
and electron-builder
directories within C:\Users\YOURUSERNAME\AppData\Local
before attempting to retry.
Due to potential terminal permission issues, it is recommended to use the default shell terminal instead of VSCode's built-in terminal.
Demo
Multimodal Support
Reasoning and Latex Support
MCP Tools Visualization
MCP Toolcall Process Overview
MCP Prompts Template
Dynamic LLM Config
DevTool Troubleshooting
サーバー設定
{
"mcpServers": {
"chat-mcp": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--ai-ql--chat-mcp--chat-mcp",
"npm run start"
],
"env": {}
}
}
}