
经常看到一些很漂亮的网站,想把他的前端下载下来研究究,以前用过一款软件可以把网站所有 css、img、js 所有元素下载到同一目录或者网站原有目录。。
有啥其他好用的软件吗?
1 paloalto 2018 年 5 月 26 日 浏览器一般都有个「 Save as 」的功能,好像也叫「右键另存为」。 另外,只是学习代码的话,其实不用存到本地,chrome 浏览器的 developers tools 功能更强大一些。 |
2 yukiww233 2018 年 5 月 26 日 整站下载的话 httrack 很好用 而且还在更新 |
3 May725 2018 年 5 月 26 日 via iPhone 浏览器直接 ctrl+s |
4 BFDZ 2018 年 5 月 26 日 via Android windows 用 IDM linux 用 wget |
5 iConnect 2018 年 5 月 26 日 via Android 动态加载的网站,很难爬的,完全加载需要自己定制爬虫策略 |
6 loading 2018 年 5 月 26 日 webzip,老牌子了。 |
7 Aug 2018 年 5 月 26 日 via Android linux 的 wget 了解一下,``wget -T 5 -t 10 -Q 500m -nH -r -E -l inf -k -p -np```一条命令搞定,静态网站适用,曾经试用过 windows 的各种软件,在预期内,没有比这个好的。希望能帮到你,`号内的是命令。 |
9 429463267 2018 年 5 月 26 日 via Android wget 工具,我用了很久,镜像网站的神器,支持 win、linux,非常强大。。。 |
10 alvin666 2018 年 5 月 26 日 via Android win httrack,二楼也推荐的,之前校内论坛被领导搞了,花了几天把除了图片的东西拖了下来,专业的下载全站的软件,能设置的地方很多,比如断点续传,链接深度,下载附件类型,附件大小过滤等等,太好用了 |
11 Pyjamas 2018 年 5 月 26 日 貌似是 wget --mirror -k |
12 cy97cool 2018 年 5 月 26 日 借楼同问有没有 chrome headless 保存单个页面 最好直接跑个 Docker 容器,传入 URL、cookie,和访问规则(例如以多快的速度滚动鼠标到页面底部,点击哪些按钮),传出一个 zip 包 换个说法 印象笔记的剪藏扩展可不可以自动化调用 如果有的话保存知乎等网站就方便多了 |
13 PerFectTime 2018 年 5 月 27 日 Offline Explorer 了解一下 |
14 xftsoft 2020 年 7 月 12 日 小飞兔整站下载了解下 |