返回首页

如何快速提取网页上所有的URL链接?

219 2024-01-21 16:26 admin

1、批量获取下载链接需要用到浏览器的页面保存功能,我这里使用的是Chrome浏览器。打开需要下载数据链接的页面后,如下面图中所示,可以看到每个订单后面都提供了两个下载链接。

2、这个时候在页面上点击右键,然后选择另存为选项。然后会弹出窗口,让你保存文件的存放位置。

3、我这里选择桌面保存这个页面文件,然后给文件取个名字。

4、这个时候在桌面上就能看到刚才文件名命名的一个html文件和一个目录。我们需要的是那个html文件。

5、在windows平台上,我们取出地址使用的是notepad这个文本编辑器。在保存下来的html文件上点右键,选择edit with notepad。

6、打开以后拉到下面,可以看到所有的下载链接,这就是html源码格式,我们现在就是要把地址从这些源码中挑选出来。

7、在编辑界面按ctrl+f按键,弹出搜索窗口,然后输入ftp://这几个字符,然后选择在文件中查找。

8、就会在编辑页面的下面出现所有符合规则的下载地址,如下面图中所示。

9、这个时候用鼠标选中所有的下载地址,然后点击右键,选择copy,复制所有的下载地址。

10、复制完成后,在桌面上新建一个url.txt文件来保存刚才复制的地址。

11、将刚才复制的所有地址粘贴到txt文件里以后,可以看到地址还是下图这样,我们还需要把前面的代码和后面的代码去掉。

12、首先用鼠标选中前面那段不需要的代码,如下面图中蓝色部分所示。然后点击记事本上面的编辑,再点击替换。

13、在替换窗口,把刚才复制到的代码粘贴到查找内容里,然后点击全部替换。

14、这个时候就会发现前面那段不需要的代码都消失了,同样地,再复制后面那段不需要的代码,用同样的替换方式,最后获取到的就是所有的下载链接了。

15、如下面图中所示,不需要安装任何复杂的第三方软件,只需要两个记事本软件即可。

顶一下
(0)
0%
踩一下
(0)
0%
相关评论
我要评论
用户名: 验证码:点击我更换图片

网站地图 (共14个专题45161篇文章)

返回首页