你不就是想一篇文章或一个单独的图像,你想整个网站。 什么是虹吸所有最简单的方法?
今天的问答环节由我们感谢SuperUser - Stack Exchange的一个分支,这是一个社区驱动的Q&A网站分组。
图片可作为墙纸在GoodFon 。
问题
超级读者Joe有一个简单的请求:
如何从网站下载所有网页?
任何平台都很好。
每一页,没有例外。 乔的任务。
答案
超级用户贡献者Axxmasterr提供应用推荐:
HTTRACK像一个冠军复制整个网站的内容。 这个工具甚至可以抓住使一个网站与活跃的代码内容离线工作所需的部分。 我很惊讶的东西,它可以离线复制。
这个程序将做你所需要的它。
快乐狩猎!
我们衷心的评价HTTRACK。 这是一个成熟的应用程序,完成工作。 非Windows平台上的档案管理员怎么办? 另一个贡献者,Jonik,建议另一个成熟和强大的工具:
wget的是这类任务的经典命令行工具。 它配备了大多数的Unix / Linux系统,你可以得到它的Windows太(更新1.13.4可在这里)。
你会做类似的事情:
wget -r --no-parent http://site.com/songs/
有什么东西添加到解释? 声音在评论中。 想要阅读更多的技术精明的Stack Exchange用户的答案? 这里查看完整的话题 。