Python-简单的爬虫案例(百度贴吧-图片)

本文介绍了一个简单的Python爬虫程序,用于从百度贴吧抓取图片。通过requests库获取网页内容,利用正则表达式提取图片链接,并使用urllib库保存图片。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

#!/usr/bin/python
# coding:utf-8
# 实现一个简单的爬虫,爬取百度贴吧图片
import requests
import re
import urllib.request

def main():
    # 获取页面的URL
    url = 'http://tieba.baidu.com/p/2256306796'
    # 获取页面的css样式
    html = requests.get(url).text
    # 使用正则,将图片提取出来
    jpgReg = re.compile(r'<img.+?src="(.+?\.jpg)" width')
    jpgs = re.findall(jpgReg, html)
    # 循环将图片存在文件夹中
    count = 0
    for url in jpgs:
        urllib.request.urlretrieve(url, './package/%s.jpg' % count)
        count += 1

if __name__ == '__main__':
    main()
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值