一入python深似海--小爬虫

一个从百度贴吧,爬取图片的例子。

urllib,urllib2,re

函数

page=urllib.urlopen('http://...')  返回一个网页对象

html=page.read()   读取网页的html源码

urllib.urlretrieve()  下载资源到本地

代码

#coding:utf8
import re
import urllib

def getHtml(url):
    page=urllib.urlopen(url)
    html=page.read()
    return html

def getImgUrl(html):
    reg=r'src="(.*?\.jpg)"'#?非贪婪匹配,()分组只返回分组结果,外单引号内双引号
    imgre=re.compile(reg)#编译正则表达式,加快速度
    imglist=re.findall(imgre,html)
    return imglist
url="http://tieba.baidu.com/p/3162606526"#贴吧地址
html=getHtml(url)
ImgList=getImgUrl(html)
ImgList= ImgList[1:10]#取前10个下载
print ImgList
x=0
for imgurl in ImgList:
    urllib.urlretrieve(imgurl,'%s.jpg' %x)
    x+=1


评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值