网站下载器 Mcp 服务器
概览
什么是网站下载器?
网站下载器是一款强大的工具,旨在下载整个网站以供离线访问。该工具允许用户保存网页、图像和其他媒体文件,使他们能够在没有互联网连接的情况下浏览内容。对于希望归档网页内容、进行研究或简单保存自己喜欢的网站以便后续查看的用户来说,这尤其有用。
网站下载器的特点
- 完整网站下载:捕获网站的所有元素,包括HTML、CSS、JavaScript、图像和视频。
- 离线浏览:在没有互联网连接的情况下访问下载的网站,方便旅行或在连接有限的地区使用。
- 用户友好的界面:简单直观的设计,使用户能够轻松导航和下载网站,几乎不费力气。
- 可定制选项:用户可以选择特定页面或整个域名进行下载,根据个人需求提供灵活性。
- 快速下载速度:经过优化以实现快速下载,让用户在归档内容时节省时间。
- 跨平台兼容性:适用于各种操作系统,确保所有用户都能访问。
如何使用网站下载器
- 下载并安装:首先从官方网站或存储库下载网站下载器应用程序。
- 输入网址:打开应用程序并输入您希望下载的网站的URL。
- 选择选项:选择您的下载偏好,例如是否包括图像、视频或特定文件类型。
- 开始下载:点击下载按钮以开始该过程。应用程序将开始获取网站的内容。
- 离线访问:下载完成后,您可以通过浏览器或应用程序本身离线访问该网站。
常见问题解答
问:网站下载器是免费使用的吗?
答:是的,网站下载器是免费的,但某些高级功能可能需要付费版本。
问:我可以下载任何网站吗?
答:大多数网站都可以下载,但某些网站可能有限制或保护措施,阻止下载。
问:需要多少存储空间?
答:所需的存储空间取决于网站的大小。包含许多媒体文件的大型网站将需要更多空间。
问:下载网站是否合法?
答:出于个人使用目的下载网站通常是合法的,但在未获得许可的情况下重新分发或使用内容可能违反版权法。
问:我可以安排下载吗?
答:某些版本的网站下载器可能提供调度功能,允许您设置特定时间进行下载。
通过利用网站下载器,用户可以高效地保存和访问离线网页内容,使其成为任何希望归档自己喜欢的网站的用户的宝贵工具。
详情
Website Downloader MCP Server
This MCP server provides a tool to download entire websites using wget. It preserves the website structure and converts links to work locally.
<a href="https://glama.ai/mcp/servers/egcwr79vu2"><img width="380" height="200" src="https://glama.ai/mcp/servers/egcwr79vu2/badge" alt="Google Workspace Server MCP server" /></a>
Prerequisites
The server requires wget
to be installed on your system.
Installing wget
macOS
Using Homebrew:
brew install wget
Linux (Debian/Ubuntu)
sudo apt-get update
sudo apt-get install wget
Linux (Red Hat/Fedora)
sudo dnf install wget
Windows
- Using Chocolatey:
choco install wget
- Or download the binary from: https://eternallybored.org/misc/wget/
- Download the latest wget.exe
- Place it in a directory that's in your PATH (e.g., C:\Windows\System32)
Usage
The server provides a tool called download_website
with the following parameters:
url
(required): The URL of the website to downloadoutputPath
(optional): The directory where the website should be downloaded. Defaults to the current directory.depth
(optional): Maximum depth level for recursive downloading. Defaults to infinite. Set to 0 for just the specified page, 1 for direct links, etc.
Example
{
"url": "https://example.com",
"outputPath": "/path/to/output",
"depth": 2 // Optional: Download up to 2 levels deep
}
Features
The website downloader:
- Downloads recursively with infinite depth
- Includes all page requisites (CSS, images, etc.)
- Converts links to work locally
- Adds appropriate extensions to files
- Restricts downloads to the same domain
- Preserves the website structure
Installation
- Build the server:
npm install
npm run build
- Add to MCP settings:
{
"mcpServers": {
"website-downloader": {
"command": "node",
"args": ["/path/to/website-downloader/build/index.js"]
}
}
}
Server配置
{
"mcpServers": {
"website-downloader": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"ghcr.io/metorial/mcp-container--pskill9--website-downloader--website-downloader",
"node ./build/index.js"
],
"env": {}
}
}
}