python requests 和正则表达式提取贴吧图片

利用requests库的get方法获取网页内容,再通过正则表达式匹配提取图片URL,最终将图片保存到本地。这是作者初次尝试的Python爬虫项目,适合初学者,欢迎交流指正。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

通过requests的get方法得到对应url 的页面,然后直接使用re 的正则表达式来查找对应的图片的地址,最后将图片保存在本地。
这个可以算的上是自己的第一个python 爬虫了吧。。。。
新手,有很多不好的地方,欢迎交流

import requests
import sys
import io
import re
import os

url = "http://c.tieba.baidu.com/p/5287949986"

html=requests.get(url)
url_list = re.findall(r"http://imgsrc.baidu.com/forum/.*?\.jpg",html.text)

root = "E://pics//"
file=open(root+"demo.txt","a")
for url in url_list:
     file.write(url+"\n")
file.close()
'''
for i in url_list:
     with open(root+"demo.txt","w")as p:
          p.write(i)
          p.close()
'''
print("url_list download success!")
num=0
failed_count=0
for url in url_list:
    path = root+str(num+1)+".jpg"
    with open(path,"wb") as f:
         try:
             res=requests.get(url,timeout=30)
             f.write(res.content)
             f.close()
             num+=1
         except:
             print("failed")
             failed_count+=1

print("download compelete!\n"+"successful{}\n failed {}".format(num,failed_count))
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值