有没有这种爬虫软件呢?
将目标站所有的图片、css、js和html文件抓取存储,做灾备用途。这个应该是有的吧。。 cyotek-webcopy
下载地址:https://www.cyotek.com/cyotek-webcopy
WebCopy 将扫描指定的网站并下载其内容。指向网站中样式表、图像和其他页面等资源的链接将自动重新映射以匹配本地路径。使用其广泛的配置,您可以定义将复制网站的哪些部分以及如何复制,例如,您可以制作静态网站的完整副本以供离线浏览,或下载所有图像或其他资源。 网站克隆工具 wget 就可以了
页:
[1]