Prometheus Mcp Server
Un server Model Context Protocol (MCP) che consente agli assistenti AI di interrogare e analizzare le metriche di Prometheus attraverso interfacce standardizzate.
Panoramica
Cos'è il Server MCP di Prometheus?
Il ### Server MCP di Prometheus è un server del Protocollo di Contesto del Modello (MCP) progettato per facilitare gli assistenti AI nella query e nell'analisi delle metriche di Prometheus attraverso interfacce standardizzate. Questo server funge da ponte, consentendo un'interazione fluida tra i sistemi AI e i ricchi dati forniti da Prometheus, un potente toolkit di monitoraggio e allerta ampiamente utilizzato negli ambienti cloud-native.
Caratteristiche del Server MCP di Prometheus
- Interfacce Standardizzate: Il server fornisce un insieme di API standardizzate che consentono agli assistenti AI di accedere e manipolare facilmente le metriche di Prometheus.
- Accesso ai Dati in Tempo Reale: Gli utenti possono interrogare le metriche in tempo reale, consentendo intuizioni e decisioni immediate.
- Integrazione Facile: Progettato per integrarsi senza problemi con i sistemi AI esistenti e le configurazioni di Prometheus, migliorando la funzionalità complessiva senza richiedere cambiamenti estesi.
- Open Source: Essendo un repository pubblico, incoraggia i contributi e i miglioramenti della comunità, promuovendo un ambiente di sviluppo collaborativo.
- Scalabilità: L'architettura supporta la scalabilità, rendendola adatta sia per piccole che per grandi implementazioni.
Come Utilizzare il Server MCP di Prometheus
- Installazione: Clona il repository da GitHub e segui le istruzioni di installazione fornite nella documentazione.
- Configurazione: Configura il server impostando i parametri necessari per connetterti alla tua istanza di Prometheus.
- Accesso API: Utilizza le API fornite per inviare query dal tuo assistente AI al Server MCP di Prometheus.
- Analisi dei Dati: Analizza le metriche restituite e integrale nei tuoi flussi di lavoro AI per migliorare le capacità decisionali.
- Supporto della Comunità: Interagisci con la comunità per supporto, richieste di funzionalità e contributi al progetto.
Domande Frequenti
Qual è lo scopo del Server MCP di Prometheus?
Lo scopo principale del Server MCP di Prometheus è abilitare gli assistenti AI a interrogare e analizzare le metriche di Prometheus attraverso interfacce standardizzate, migliorando le capacità dell'AI in ambienti basati sui dati.
Il Server MCP di Prometheus è open source?
Sì, il Server MCP di Prometheus è un progetto open source, che consente agli utenti di contribuire al suo sviluppo e miglioramento.
Come posso contribuire al Server MCP di Prometheus?
Puoi contribuire forking il repository, apportando miglioramenti e inviando richieste di pull. Inoltre, puoi segnalare problemi o suggerire funzionalità tramite la pagina delle issue di GitHub.
Quali sono i requisiti di sistema per eseguire il Server MCP di Prometheus?
Il server richiede un ambiente compatibile con accesso a un'istanza di Prometheus. I requisiti specifici possono essere trovati nella documentazione all'interno del repository.
Posso utilizzare il Server MCP di Prometheus con altri strumenti di monitoraggio?
Sebbene sia principalmente progettato per Prometheus, l'architettura consente potenziali integrazioni con altri strumenti di monitoraggio, a seconda del caso d'uso specifico e dei requisiti.
Dettaglio
Prometheus MCP Server
A Model Context Protocol (MCP) server for Prometheus.
This provides access to your Prometheus metrics and queries through standardized MCP interfaces, allowing AI assistants to execute PromQL queries and analyze your metrics data.
<a href="https://glama.ai/mcp/servers/@pab1it0/prometheus-mcp-server"> <img width="380" height="200" src="https://glama.ai/mcp/servers/@pab1it0/prometheus-mcp-server/badge" alt="Prometheus Server MCP server" /> </a>Features
-
Execute PromQL queries against Prometheus
-
Discover and explore metrics
- List available metrics
- Get metadata for specific metrics
- View instant query results
- View range query results with different step intervals
-
Authentication support
- Basic auth from environment variables
- Bearer token auth from environment variables
-
Docker containerization support
-
Provide interactive tools for AI assistants
The list of tools is configurable, so you can choose which tools you want to make available to the MCP client. This is useful if you don't use certain functionality or if you don't want to take up too much of the context window.
Usage
-
Ensure your Prometheus server is accessible from the environment where you'll run this MCP server.
-
Configure the environment variables for your Prometheus server, either through a
.env
file or system environment variables:
### Required: Prometheus configuration
PROMETHEUS_URL=http://your-prometheus-server:9090
### Optional: Authentication credentials (if needed)
### Choose one of the following authentication methods if required:
### For basic auth
PROMETHEUS_USERNAME=your_username
PROMETHEUS_PASSWORD=your_password
### For bearer token auth
PROMETHEUS_TOKEN=your_token
### Optional: For multi-tenant setups like Cortex, Mimir or Thanos
ORG_ID=your_organization_id
- Add the server configuration to your client configuration file. For example, for Claude Desktop:
{
"mcpServers": {
"prometheus": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"-e",
"PROMETHEUS_URL",
"ghcr.io/pab1it0/prometheus-mcp-server:latest"
],
"env": {
"PROMETHEUS_URL": "<url>"
}
}
}
}
Development
Contributions are welcome! Please open an issue or submit a pull request if you have any suggestions or improvements.
This project uses uv
to manage dependencies. Install uv
following the instructions for your platform:
curl -LsSf https://astral.sh/uv/install.sh | sh
You can then create a virtual environment and install the dependencies with:
uv venv
source .venv/bin/activate # On Unix/macOS
.venv\Scripts\activate # On Windows
uv pip install -e .
Project Structure
The project has been organized with a src
directory structure:
prometheus-mcp-server/
├── src/
│ └── prometheus_mcp_server/
│ ├── __init__.py # Package initialization
│ ├── server.py # MCP server implementation
│ ├── main.py # Main application logic
├── Dockerfile # Docker configuration
├── docker-compose.yml # Docker Compose configuration
├── .dockerignore # Docker ignore file
├── pyproject.toml # Project configuration
└── README.md # This file
Testing
The project includes a comprehensive test suite that ensures functionality and helps prevent regressions.
Run the tests with pytest:
### Install development dependencies
uv pip install -e ".[dev]"
### Run the tests
pytest
### Run with coverage report
pytest --cov=src --cov-report=term-missing
Tests are organized into:
- Configuration validation tests
- Server functionality tests
- Error handling tests
- Main application tests
When adding new features, please also add corresponding tests.
Tools
| Tool | Category | Description |
| | | |
| execute_query
| Query | Execute a PromQL instant query against Prometheus |
| execute_range_query
| Query | Execute a PromQL range query with start time, end time, and step interval |
| list_metrics
| Discovery | List all available metrics in Prometheus |
| get_metric_metadata
| Discovery | Get metadata for a specific metric |
| get_targets
| Discovery | Get information about all scrape targets |
License
MIT
Configurazione Server
{
"mcpServers": {
"prometheus-mcp-server": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--pab1it0--prometheus-mcp-server--prometheus-mcp-server",
"prometheus-mcp-server"
],
"env": {
"PROMETHEUS_URL": "prometheus-url",
"PROMETHEUS_USERNAME": "prometheus-username",
"PROMETHEUS_PASSWORD": "prometheus-password"
}
}
}
}