【python--爬虫】妹子图街拍美女爬虫

本文介绍了如何使用Python进行爬虫操作,目标是抓取妹子图街拍美女的图片。通过分析网页源代码,找到图片链接位于class属性为'lazy'的标签内的data-original属性,进而实现图片的下载并保存到本地的picture文件夹。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

爬取美女图,并下载保存到本地的文件夹【picture】中
打开网址,然后右键图片点击【查看元素】查看图片链接位置
网页存在于class属性为lazy的标签中的data-original属性中

#  使用的默认编码为utf-8
# -*- coding:utf-8 -*-

#  导入名为requests的模块
import requests
# 导入lxml模块中的etree函数,用于将网页改为etree格式,进行匹配图片链接
from lxml import etree

"""
设置浏览器头部,
User-Agent用于表示浏览器的参数信息
Referer用于设置使用那个网页跳转过来的
url用于设置网址模板,可以通过.format参数补充网址
"""
header = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64; rv:66.0) Gecko/20100101 Firefox/66.0",
          "Referer":"https://“image.baidu.com”/jiepai/comment-page-1/",}
url = 'https://“image.baidu.com”/jiepai/comment-page-{}/#comments'
name = 0

# 下载网页
def get_html(url):
    """获取网页代码并以返回值的形式弹出"""
    html = requests.get(url,headers=header).text
    return html

# 下载图片
def get_img(url):
    """下载图片并保存到指定文件夹下"""
    global name
    name +=1
    img_name = 'picture\\{}.jpg'.format(name)
    img = requests.get(url,headers=header).content
    with open (img_name,'wb') as save_img:
        save_img.write(img)

# 获取图片链接
def get_url(ht
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值