python下载博文中微博图床图片

博主因博客中大量图片因新浪限制无法显示,决定使用Python编写爬虫进行批量下载。该爬虫针对含有'sinaimg'的img标签,根据输入的博文URL,依次下载图片并按序命名。图片保存在以URL末尾字符命名的子目录中。目前已在Windows上测试成功,Mac用户可能需要调整路径处理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

python下载博文中微博图床图片

前言

昨天突然发现博客中的许多图片都挂了(会尽neng快tuo修jiu复tuo),今天看了下,发现很多人都挂了,嗯没错就是新浪搞的鬼了,目前是对referrer进行了限制,目前空的referrer还是可以访问的。小气吧啦的新浪,还是改用GitHub吧,ipic也不能用了(辣鸡新浪)。

但我的图片都没有备份…试了下手工去下载回来,但实在太慢,而且还可能漏…

只好写个爬虫了,幸好前面暴力破解的时候回忆了一下,写起来轻松许多

功能

在这里插入图片描述

直接用python运行py文件,然后根据博文提示输入博文的url

然后就会搜索页面中img标签包含sinaimg的url然后按先后顺序去下载,图片从1开始命名

下载会在当前目录下以url最后/后的字符建立一个的文件夹(所以url最后不要带/),图片会保存到此文件夹

(Windows下没有问题,mac下/好像不对,没有保存到正确位置,请需要者自行修改)

代码

import urllib.request
from lxml import etree
import ssl
import os

header={
   
   
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:63.0) Gecko/20100101 Firefox/63.0',
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',  
    'Connection': 'keep-alive'
}

def get_content(url):
    gl
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值