用Python多线程爬取图片并下载到本地

本文介绍了如何使用Python进行多线程爬取彼岸桌面网站的图片并下载到本地。首先,通过分析网站结构构造出所有页面的URL列表,接着获取每个页面的图片链接,然后下载图片。最后,通过引入多线程和生产者消费者模式,提高了图片下载的效率,确保数据一致性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、图片信息的来源

彼岸桌面    网址为:http://www.netbian.com/

2、分析网站

(1)构造页面的url列表

我们需要做的是爬取网站上给定页数的图片,所以,我们首先需要的就是观察各个页面链接之间的关系,进而构造出需要爬取页面的url列表。

第一页的链接:http://www.netbian.com/

第二页的链接:http://www.netbian.com/index_2.htm

......

可以看出,从第二页开始之后的页面链接只是后面的数字不同,我们可以写个简单的代码,获取页面的url列表

# 页面链接的初始化列表
page_links_list=['http://www.netbian.com/']

#获取爬取的页数和页面链接

pages = int(input('请输入你想爬取的页数:'))
if pages > 1:
    for page in range(2, pages + 1):
        url = 'http://www.netbian.com/index_' + str(page) + '.htm'
        page_links_list.append(url)
else:
    page_links_list=page_links_list
print(page_links_list)

结果如下:

请输入你想爬取的页数:5
['http://www.netbian.com/', 'http://www.netbian.com/index_2.htm', 'http://www.netbian.com/index_3.htm', 'http://www.netbian.com/index_4.htm', 'http://www.netbian.com/index_5.htm']

(2)获取一个页面中所有的图片的链接

我们已经获取了所有页面的链接,但是没有获取每张图片的链接,所以,接下来我们需要做的就是获取一个页面中的所有图片的链接。在这里,我们以第一页为例,获取每张图片的链接,其他页面类似。

首先在页面中右键->查看元素,然后点击查看器左边的那个小光标,再把鼠标放在随意一个图片上,这样就定位到这个图片所在的代码位置了;我们可以知道,每个页面有18张图片,接下来,我们需要采用标签去定位页面中的图片的具体位置,如下图所示,我们使用 div.list li a img 刚好定位到了18个img标签。img标签中就包含了我们需要的图片链接。

接下来,我们以第一个页面为例,获取每个图片的链接。

import requests
from bs4 import BeautifulSoup

# 页面链接的初始化列表
url='
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值