最基础的python抓取网站图片例子

本文介绍了一个简单的Python爬虫程序,该程序可以抓取指定百度贴吧页面中的所有图片,并将其下载到本地。通过正则表达式匹配图片链接并使用urllib进行下载。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

# -*- coding: utf-8 -*-

import re
import urllib
import urllib2

class Spider:
    def downLoad(self, url):
        html = self.getHtml(url)
        self.getImages(html)

    #根据url 得到 html
    def getHtml(self, url):
        page = urllib.urlopen(url)
        return page.read()

    def getImages(self, html):
        rgx = re.compile(r'src="(.+?\.jpg)" pic_ext')
        imgList = rgx.findall(html) #根据 html 匹配出 图片的url
        x = 0
        for cur in imgList:
            print ("下载第 %d 张" % x)
            urllib.urlretrieve(cur, "%s.jpg" %x)
            x = x + 1

if __name__ == "__main__":
    url = "http://tieba.baidu.com/p/2460150866"
    spider = Spider()
    spider.downLoad(url)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值