import string,urllib2
def baidu(url,bp,ep):
for i in range(bp,ep+1):
sName=string.zfill(i,5)+'.html'
print 'Download' + str(i) + 'page,store named' + sName + '......'
f=open(sName,'w+')
m=urllib2.urlopen(url+str(i)).read()
f.write(m)
f.close()
bdurl=str(raw_input(u'Please input the url, cut the number:\\n'))
bp=int(raw_input(u'Plase input the start page:\\n'))
ep=int(raw_input(u'Plase input the end page:\\n'))
baidu(bdurl,bp,ep)
代码笔记 | 自动爬取百度贴吧的网页
最新推荐文章于 2025-11-25 11:44:22 发布
本文介绍了一个简单的Python脚本,该脚本能够从指定URL范围批量下载网页内容,并将其存储为本地HTML文件。用户可以通过输入起始和结束页码来定制下载范围。
1089

被折叠的 条评论
为什么被折叠?



