パインコーンモデルコンテキストプロトコルサーバー for クロードデスクトップ。
モデルコンテキストプロトコルサーバーは、Pineconeからの読み取りと書き込みを許可します。基本的なRAG(Retrieval-Augmented Generation)です。
概要
MCP-Pineconeとは?
MCP-Pineconeは、Pineconeというベクトルデータベースサービスからの読み書き操作を容易にするために設計されたモデルコンテキストプロトコルサーバーです。このサーバーは基本的なリトリーバル拡張生成(RAG)機能を提供し、開発者がアプリケーションに高度なAI機能をシームレスに統合できるようにします。MCP-Pineconeを活用することで、ユーザーはデータ取得プロセスを強化し、Pineconeに保存された情報にアクセスしやすく、利用しやすくなります。
MCP-Pineconeの特徴
- Pineconeとの統合:Pineconeに直接接続し、効率的なデータ管理と取得を可能にします。
- RAG機能:リトリーバル拡張生成をサポートし、外部データを活用することで生成される応答の質を向上させます。
- オープンソース:一般に公開されており、開発者が必要に応じてコードを貢献したり修正したりできます。
- ユーザーフレンドリーなインターフェース:使いやすさを考慮して設計されており、初心者と経験豊富な開発者の両方にアクセス可能です。
- 活発なコミュニティ:貢献者のコミュニティに支えられ、継続的な改善とサポートが保証されています。
MCP-Pineconeの使い方
-
インストール:GitHubからリポジトリをクローンし、必要な依存関係をインストールします。
git clone https://github.com/sirmews/mcp-pinecone.git cd mcp-pinecone npm install -
設定:PineconeのAPIキーやその他の設定を環境変数または設定ファイルに設定します。
-
サーバーの実行:サーバーを起動してPineconeと対話を開始します。
npm start -
リクエストの作成:提供されたAPIエンドポイントを使用してPineconeにデータを読み書きします。利用可能なエンドポイントとその使用法については、ドキュメントを参照してください。
-
貢献:プロジェクトに貢献したい場合は、リポジトリをフォークし、変更を加えてプルリクエストを送信してください。
よくある質問
Pineconeとは?
Pineconeは、機械学習アプリケーション向けに設計された完全管理型のベクトルデータベースです。ユーザーは高次元ベクトルを効率的に保存およびクエリでき、AIやデータサイエンスに関わるアプリケーションに最適です。
MCP-Pineconeはどのようにデータ取得を強化しますか?
リトリーバル拡張生成(RAG)を実装することで、MCP-PineconeはアプリケーションがモデルのトレーニングとPineconeからのリアルタイムデータの両方に基づいて応答を生成できるようにし、より正確で文脈に関連した出力を実現します。
MCP-Pineconeは無料で使用できますか?
はい、MCP-Pineconeはオープンソースプロジェクトであり、無料で使用できます。ただし、Pineconeの利用にはサービスの使用に基づいて費用が発生する場合があります。
MCP-Pineconeプロジェクトに貢献できますか?
もちろんです!貢献は大歓迎です。リポジトリをフォークし、改善を加えてプルリクエストを送信して、コミュニティとあなたの改善を共有してください。
MCP-Pineconeのドキュメントはどこにありますか?
ドキュメントは通常、リポジトリに含まれています。セットアップ手順や使用ガイドラインについては、READMEファイルを確認してください。
詳細
Pinecone Model Context Protocol Server for Claude Desktop.
Read and write to a Pinecone index.
Components
flowchart TB
subgraph Client["MCP Client (e.g., Claude Desktop)"]
UI[User Interface]
end
subgraph MCPServer["MCP Server (pinecone-mcp)"]
Server[Server Class]
subgraph Handlers["Request Handlers"]
ListRes[list_resources]
ReadRes[read_resource]
ListTools[list_tools]
CallTool[call_tool]
GetPrompt[get_prompt]
ListPrompts[list_prompts]
end
subgraph Tools["Implemented Tools"]
SemSearch[semantic-search]
ReadDoc[read-document]
ListDocs[list-documents]
PineconeStats[pinecone-stats]
ProcessDoc[process-document]
end
end
subgraph PineconeService["Pinecone Service"]
PC[Pinecone Client]
subgraph PineconeFunctions["Pinecone Operations"]
Search[search_records]
Upsert[upsert_records]
Fetch[fetch_records]
List[list_records]
Embed[generate_embeddings]
end
Index[(Pinecone Index)]
end
%% Connections
UI --> Server
Server --> Handlers
ListTools --> Tools
CallTool --> Tools
Tools --> PC
PC --> PineconeFunctions
PineconeFunctions --> Index
%% Data flow for semantic search
SemSearch --> Search
Search --> Embed
Embed --> Index
%% Data flow for document operations
UpsertDoc --> Upsert
ReadDoc --> Fetch
ListRes --> List
classDef primary fill:#2563eb,stroke:#1d4ed8,color:white
classDef secondary fill:#4b5563,stroke:#374151,color:white
classDef storage fill:#059669,stroke:#047857,color:white
class Server,PC primary
class Tools,Handlers secondary
class Index storage
Resources
The server implements the ability to read and write to a Pinecone index.
Tools
semantic-search: Search for records in the Pinecone index.read-document: Read a document from the Pinecone index.list-documents: List all documents in the Pinecone index.pinecone-stats: Get stats about the Pinecone index, including the number of records, dimensions, and namespaces.process-document: Process a document into chunks and upsert them into the Pinecone index. This performs the overall steps of chunking, embedding, and upserting.
Note: embeddings are generated via Pinecone's inference API and chunking is done with a token-based chunker. Written by copying a lot from langchain and debugging with Claude.
Quickstart
Installing via Smithery
To install Pinecone MCP Server for Claude Desktop automatically via Smithery:
npx -y @smithery/cli install mcp-pinecone --client claude
Install the server
Recommend using uv to install the server locally for Claude.
uvx install mcp-pinecone
OR
uv pip install mcp-pinecone
Add your config as described below.
Claude Desktop
On MacOS: ~/Library/Application\ Support/Claude/claude_desktop_config.json
On Windows: %APPDATA%/Claude/claude_desktop_config.json
Note: You might need to use the direct path to uv. Use which uv to find the path.
Development/Unpublished Servers Configuration
"mcpServers": {
"mcp-pinecone": {
"command": "uv",
"args": [
"--directory",
"{project_dir}",
"run",
"mcp-pinecone"
]
}
}
Published Servers Configuration
"mcpServers": {
"mcp-pinecone": {
"command": "uvx",
"args": [
"--index-name",
"{your-index-name}",
"--api-key",
"{your-secret-api-key}",
"mcp-pinecone"
]
}
}
Sign up to Pinecone
You can sign up for a Pinecone account here.
Get an API key
Create a new index in Pinecone, replacing {your-index-name} and get an API key from the Pinecone dashboard, replacing {your-secret-api-key} in the config.
Development
Building and Publishing
To prepare the package for distribution:
- Sync dependencies and update lockfile:
uv sync
- Build package distributions:
uv build
This will create source and wheel distributions in the dist/ directory.
- Publish to PyPI:
uv publish
Note: You'll need to set PyPI credentials via environment variables or command flags:
- Token:
--tokenorUV_PUBLISH_TOKEN - Or username/password:
--username/UV_PUBLISH_USERNAMEand--password/UV_PUBLISH_PASSWORD
Debugging
Since MCP servers run over stdio, debugging can be challenging. For the best debugging experience, we strongly recommend using the MCP Inspector.
You can launch the MCP Inspector via npm with this command:
npx @modelcontextprotocol/inspector uv --directory {project_dir} run mcp-pinecone
Upon launching, the Inspector will display a URL that you can access in your browser to begin debugging.
License
This project is licensed under the MIT License. See the LICENSE file for details.
Source Code
The source code is available on GitHub.
Contributing
Send your ideas and feedback to me on Bluesky or by opening an issue.
サーバー設定
{
"mcpServers": {
"mcp-pinecone": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--sirmews--mcp-pinecone--mcp-pinecone",
"mcp-pinecone --index-name index-name --api-key api-key"
],
"env": {}
}
}
}