🚀 ⚡️ Сервер Locust Mcp
Реализация сервера Model Context Protocol (MCP) для проведения нагрузочных тестов с помощью Locust. Этот сервер обеспечивает бесшовную интеграцию возможностей нагрузочного тестирования Locust с разработческими средами на базе ИИ.
Обзор
Что такое сервер Locust MCP?
Сервер ### Locust MCP - это специализированная реализация, предназначенная для упрощения нагрузочного тестирования с использованием Locust, популярного инструмента для нагрузочного тестирования с открытым исходным кодом. Этот сервер позволяет пользователям эффективно проводить нагрузочные тесты, интегрируя возможности Locust с разработкой на основе ИИ. Он предоставляет надежную основу для моделирования пользовательского трафика и измерения производительности системы в различных условиях, что делает его незаменимым инструментом для разработчиков и тестировщиков, стремящихся обеспечить, чтобы их приложения могли справляться с ожидаемыми нагрузками.
Особенности сервера Locust MCP
- Бесшовная интеграция: Сервер Locust MCP плавно интегрируется с существующими средами разработки, позволяя легко настраивать и выполнять нагрузочные тесты.
- Возможности на основе ИИ: Используйте технологии ИИ для улучшения стратегий нагрузочного тестирования, предоставляя инсайты и оптимизации, которые могут быть упущены традиционными методами.
- Масштабируемость: Сервер разработан для обработки большого количества одновременно работающих пользователей, что делает его подходящим для тестирования приложений любого размера.
- Мониторинг в реальном времени: Пользователи могут отслеживать производительность своих приложений в реальном времени во время нагрузочных тестов, что позволяет получать немедленную обратную связь и вносить корректировки.
- Настраиваемые сценарии: Создавайте индивидуальные сценарии нагрузочного тестирования, которые имитируют поведение реальных пользователей, обеспечивая актуальность и эффективность тестов.
Как использовать сервер Locust MCP
- Установка: Начните с установки сервера Locust MCP на своем компьютере или сервере. Следуйте инструкциям по установке, приведенным в документации.
- Конфигурация: Настройте параметры сервера в соответствии с вашими требованиями к тестированию. Это включает в себя настройку количества пользователей, продолжительности теста и любых конкретных сценариев, которые вы хотите смоделировать.
- Запуск тестов: Начните нагрузочные тесты через интерфейс сервера. Отслеживайте процесс и результаты в реальном времени, чтобы получить представление о производительности вашего приложения.
- Анализ результатов: После завершения тестов проанализируйте результаты, чтобы выявить узкие места, проблемы с производительностью и области для улучшения.
- Итерация: На основе полученных данных внесите необходимые корректировки в ваше приложение и повторите процесс тестирования, чтобы обеспечить оптимальную производительность.
Часто задаваемые вопросы
В: Какова основная цель сервера Locust MCP?
О: Основная цель - облегчить нагрузочное тестирование приложений, позволяя разработчикам моделировать пользовательский трафик и оценивать производительность в различных условиях.
В: Могу ли я интегрировать сервер Locust MCP с другими инструментами?
О: Да, сервер Locust MCP разработан для интеграции с различными инструментами разработки и тестирования, что улучшает его функциональность и удобство использования.
В: Есть ли стоимость, связанная с использованием сервера Locust MCP?
О: Сервер Locust MCP является открытым и бесплатным для использования, что делает его доступным для разработчиков и организаций любого размера.
В: Как я могу внести свой вклад в проект сервера Locust MCP?
О: Внесение вкладов приветствуется! Вы можете участвовать, сообщая о проблемах, предлагая функции или отправляя улучшения кода через репозиторий проекта.
В: Где я могу найти больше информации о сервере Locust MCP?
О: Для получения более подробной информации, документации и поддержки посетите официальный сайт по адресу qainsights.com.
Деталь
🚀 ⚡️ locust-mcp-server
A Model Context Protocol (MCP) server implementation for running Locust load tests. This server enables seamless integration of Locust load testing capabilities with AI-powered development environments.
✨ Features
- Simple integration with Model Context Protocol framework
- Support for headless and UI modes
- Configurable test parameters (users, spawn rate, runtime)
- Easy-to-use API for running Locust load tests
- Real-time test execution output
- HTTP/HTTPS protocol support out of the box
- Custom task scenarios support
🔧 Prerequisites
Before you begin, ensure you have the following installed:
- Python 3.13 or higher
- uv package manager (Installation guide)
📦 Installation
- Clone the repository:
git clone https://github.com/qainsights/locust-mcp-server.git
- Install the required dependencies:
uv pip install -r requirements.txt
- Set up environment variables (optional):
Create a
.env
file in the project root:
LOCUST_HOST=http://localhost:8089 # Default host for your tests
LOCUST_USERS=3 # Default number of users
LOCUST_SPAWN_RATE=1 # Default user spawn rate
LOCUST_RUN_TIME=10s # Default test duration
🚀 Getting Started
- Create a Locust test script (e.g.,
hello.py
):
from locust import HttpUser, task, between
class QuickstartUser(HttpUser):
wait_time = between(1, 5)
@task
def hello_world(self):
self.client.get("/hello")
self.client.get("/world")
@task(3)
def view_items(self):
for item_id in range(10):
self.client.get(f"/item?id={item_id}", name="/item")
time.sleep(1)
def on_start(self):
self.client.post("/login", json={"username":"foo", "password":"bar"})
- Configure the MCP server using the below specs in your favorite MCP client (Claude Desktop, Cursor, Windsurf and more):
{
"mcpServers": {
"locust": {
"command": "/Users/naveenkumar/.local/bin/uv",
"args": [
"--directory",
"/Users/naveenkumar/Gits/locust-mcp-server",
"run",
"locust_server.py"
]
}
}
}
- Now ask the LLM to run the test e.g.
run locust test for hello.py
. The Locust MCP server will use the following tool to start the test:
run_locust
: Run a test with configurable options for headless mode, host, runtime, users, and spawn rate
📝 API Reference
Run Locust Test
run_locust(
test_file: str,
headless: bool = True,
host: str = "http://localhost:8089",
runtime: str = "10s",
users: int = 3,
spawn_rate: int = 1
)
Parameters:
test_file
: Path to your Locust test scriptheadless
: Run in headless mode (True) or with UI (False)host
: Target host to load testruntime
: Test duration (e.g., "30s", "1m", "5m")users
: Number of concurrent users to simulatespawn_rate
: Rate at which users are spawned
✨ Use Cases
- LLM powered results analysis
- Effective debugging with the help of LLM
🤝 Contributing
Contributions are welcome! Please feel free to submit a Pull Request.
📄 License
This project is licensed under the MIT License - see the LICENSE file for details.
Конфигурация сервера
{
"mcpServers": {
"locust-mcp-server": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--qainsights--locust-mcp-server--locust-mcp-server",
"python main.py"
],
"env": {}
}
}
}