爬虫-01

今天刚稍微学了点python,找了个简单的爬虫学习一下。
这个是简单爬取贴吧帖子图片的一个小内容,主要就是获取网址,得到源码,找出其中的图片链接,并下载。
接下来,正文:

coding:utf-8

import urllib
import re

page = urllib.urlopen(‘http://tieba.baidu.com/p/1753935195’)

htmlcode = page.read()

print htmlcode

def get_html(url):
page = urllib.urlopen(url)
html = page.read()
return html

def get_img(html_code):
reg = r’src="(.+?.jpg)" width’
reg_img = re.compile(reg) #编译一下,运行更快
imglist = reg_img.findall(get_html(‘http://tieba.baidu.com/p/1753935195’))
img_count = 0
for img in imglist:
urllib.urlretrieve(img, ‘img/%s.jpg’ %img_count)
img_count += 1

print u’请输入url:’
url = raw_input()
if url:
pass
else:
url = ‘http://tieba.baidu.com/p/1753935195
html_code = get_html(url)
get_img(html_code)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值