[python]利用BeautifulSoup进行简单图片抓取

本文介绍了一种使用Python的BeautifulSoup库从百度贴吧指定帖子抓取图片的方法。通过urllib获取网页内容,再利用BeautifulSoup解析页面源码,找出所有带有BDE_Image类别的img标签并下载这些图片。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

需要事先安装好BeautifulSoup,官网:https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.html

抓取地址:http://tieba.baidu.com/p/2772656630


代码

#-*- coding:utf-8 -*-

import urllib
from bs4 import BeautifulSoup

def get_content(url):
	
	html = urllib.urlopen(url)
	content = html.read()
	html.close()

	return content

def get_images(content):
	
	oSoup = BeautifulSoup(content)
	
	all_images = oSoup.find_all('img', class_="BDE_Image")

	x = 1
	for img in all_images:
		print img['src']
		image_name = "%s.jpg" % x

		urllib.urlretrieve(img['src'], image_name)
		x+=1
		

url = "http://tieba.baidu.com/p/2772656630"	

content = get_content(url)

get_images(content)




评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值