用Python爬取某吧的美图

本文介绍了一个简单的Python脚本,该脚本使用urllib和正则表达式从百度贴吧抓取图片。通过解析网页源码并匹配图片链接,实现图片的下载与保存。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Talk is cheap, show the code!

import re  
import urllib.request  
def getHtml(url):  
    page=urllib.request.urlopen(url)  
    html=page.read().decode('utf-8')  
    return html  
def getImag(html):  
    reg=r'src="(.*?\.jpg)" size'  
    imgre=re.compile(reg)  
    imglist=re.findall(imgre,html)  
    x=0  
    for imgurl in imglist:  
        urllib.request.urlretrieve(imgurl,'%s.jpg' %x)  
        x+=1  
html=getHtml('http://tieba.baidu.com/p/4894718605')  
print(getImag(html)) 

注:1.我用的Python版本为3.4

        2.在Python3.x版本中,需要导入的是urllib.request,这里不同于以前版本

        3.在爬的过程中遇到了:“TypeError:can't use a string pattern on a bytes-like object ”,这个问题,解决办法为将读取到的文件解码成”utf-8“,即将”html=page.read()“改为”html=page.read().decode('utf-8')“


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值