Llamacloud Mcpサーバー
LlamaCloudの管理されたインデックスに接続するMCPサーバー
概要
MCPサーバーLlamaCloudとは?
MCPサーバーLlamaCloudは、LlamaCloud上の管理されたインデックスに接続するために設計された強力なサーバーです。さまざまなアプリケーションとLlamaCloudインフラストラクチャとの間の橋渡しを行い、シームレスなデータ管理と取得を可能にします。このサーバーは、データ処理ニーズのためにLlamaCloudの機能を活用しようとする開発者や組織に特に有益です。
MCPサーバーLlamaCloudの特徴
- シームレスな統合:MCPサーバーは既存のアプリケーションとの簡単な統合を可能にし、開発者にとって多用途な選択肢となります。
- 管理されたインデックス:LlamaCloud上の管理されたインデックスに接続し、データが整理されて簡単にアクセスできるようにします。
- スケーラビリティ:サーバーはさまざまな負荷に対応できるように設計されており、小規模なプロジェクトから大規模なアプリケーションまで適しています。
- オープンソース:公開リポジトリであるため、開発者はその開発に貢献し、自分のニーズに合わせてカスタマイズできます。
- コミュニティサポート:成長するユーザーと貢献者のコミュニティがあり、サポートやリソースがすぐに利用可能です。
MCPサーバーLlamaCloudの使い方
- インストール:まず、GitHubからリポジトリをクローンします。次のコマンドを使用できます:
git clone https://github.com/run-llama/mcp-server-llamacloud.git
- 設定:クローンした後、ディレクトリに移動し、要件に応じてサーバー設定を構成します。
- サーバーの実行:提供されたスクリプトを使用してサーバーを起動します。すべての依存関係がインストールされていることを確認してください。
- LlamaCloudへの接続:ドキュメントに従って、アプリケーションをLlamaCloud上の管理されたインデックスに接続します。
- 監視とメンテナンス:サーバーのパフォーマンスを定期的に監視し、最適な運用を確保するために必要に応じて更新します。
よくある質問
MCPサーバーLlamaCloudはどのプログラミング言語をサポートしていますか?
MCPサーバーは、主にPythonやJavaScriptなどのサーバーサイド開発で一般的に使用される言語で構築されています。
MCPサーバーLlamaCloudの使用に費用はかかりますか?
いいえ、MCPサーバーはオープンソースで無料で使用できます。ただし、ユーザーは利用するLlamaCloudサービスに関連する費用が発生する可能性があります。
MCPサーバーLlamaCloudプロジェクトにどのように貢献できますか?
リポジトリをフォークし、変更を加えてプルリクエストを送信することで貢献できます。コミュニティは貢献と協力を奨励しています。
MCPサーバーLlamaCloudのドキュメントはどこにありますか?
ドキュメントはリポジトリ内にあり、通常はREADME.md
ファイルまたは専用のdocs
フォルダーにあります。
MCPサーバーLlamaCloudを商業目的で使用できますか?
はい、MITライセンスの下でオープンソースであるため、個人プロジェクトと商業プロジェクトの両方で使用できます。
詳細
LlamaCloud MCP Server
A MCP server connecting to multiple managed indexes on LlamaCloud
This is a TypeScript-based MCP server that creates multiple tools, each connected to a specific managed index on LlamaCloud. Each tool is defined through command-line arguments.
<a href="https://glama.ai/mcp/servers/o4fcj7x2cg"><img width="380" height="200" src="https://glama.ai/mcp/servers/o4fcj7x2cg/badge" alt="LlamaCloud Server MCP server" /></a>
Features
Tools
- Creates a separate tool for each index you define
- Each tool provides a
query
parameter to search its specific index - Auto-generates tool names like
get_information_index_name
based on index names
Installation
To use with your MCP Client (e.g. Claude Desktop, Windsurf or Cursor), add the following config to your MCP client config:
The LLAMA_CLOUD_PROJECT_NAME
environment variable is optional and defaults to Default
if not set.
{
"mcpServers": {
"llamacloud": {
"command": "npx",
"args": [
"-y",
"@llamaindex/mcp-server-llamacloud",
"--index",
"10k-SEC-Tesla",
"--description",
"10k SEC documents from 2023 for Tesla",
"--topK",
"5",
"--index",
"10k-SEC-Apple",
"--description",
"10k SEC documents from 2023 for Apple"
],
"env": {
"LLAMA_CLOUD_API_KEY": "<YOUR_API_KEY>"
}
}
}
}
For Claude, the MCP config can be found at:
- On MacOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- On Windows:
%APPDATA%/Claude/claude_desktop_config.json
Tool Definition Format
In the args
array of the MCP config, you can define multiple tools by providing pairs of --index
and --description
arguments. Each pair defines a new tool. You can also optionally specify --topK
to limit the number of results.
For example:
--index "10k-SEC-Tesla" --description "10k SEC documents from 2023 for Tesla" --topK 5
Adds a tool for the 10k-SEC-Tesla
LlamaCloud index to the MCP server. In this example, it's configured to return the top 5 results.
Development
Install dependencies:
npm install
Build the server:
npm run build
For development with auto-rebuild:
npm run watch
To use the development version, replace in your MCP config npx @llamaindex/mcp-server-llamacloud
with node ./build/index.js
.
Debugging
Since MCP servers communicate over stdio, debugging can be challenging. We recommend using the MCP Inspector, which is available as a package script:
npm run inspector
The Inspector will provide a URL to access debugging tools in your browser.
サーバー設定
{
"mcpServers": {
"mcp-server-llamacloud": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--run-llama--mcp-server-llamacloud--mcp-server-llamacloud",
"node ./build/index.js"
],
"env": {
"LLAMA_CLOUD_PROJECT_NAME": "llama-cloud-project-name",
"LLAMA_CLOUD_API_KEY": "llama-cloud-api-key"
}
}
}
}