Python2.7 基于bs4与requests库的网页图片简单爬取

本文介绍了一种使用Python的requests库和BeautifulSoup库抓取网页中图片的方法。通过访问指定网址并解析HTML源码,利用BeautifulSoup的find_all函数找到所有img标签,并进一步提取每个img标签中的src属性,从而获取图片的URL。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

爬虫入门新手,自学笔记,如果理解有错误请指正。

import requests
from bs4 import BeautifulSoup
import urllib
url = 'http://www.nipic.com/index.html'  #图片网站
data = requests.get(url)  #获取网站响应
soup = BeautifulSoup(data.text,'html.parser')  #解析
imgs = soup.find_all('img')

BeautifulSoup库的find_all函数可以搜索返回的网页源码中参数对应的标签对象。

尝试打印一下获取的img标签内容。

print imgs

我们可以看到一大堆img标签内容,比如 <img src="http://static.nipic.com/images/originalNewTip.png"/>, <img alt="\u4e03\u5915" desc="0" smallsrc="http://icon.nipic.com/BannerPic/20170815/home/20170815172311_1.jpg" src="http://icon.nipic.com/BannerPic/20170815/home/20170815172311.jpg"/>

我们怎么从其中分离出所需要的图片URL地址呢。从BeautifulSoup的库中可以查到,可以通过tag的属性直接获得标签内容。

for img in imgs:
    img_url = img['src']
    print img_url

可以观察到 我们所需要的图片url主要在src="http://static.nipic.com/images/originalNewTip.png" 这个属性中,所以直接通过img['src']就可以获得到图片的下载地址。

转载于:https://www.cnblogs.com/MyCodeLife-/p/7436585.html

### 实现Linux环境下的Python网页爬虫 在Linux环境中利用Python进行网页数据抓取是一项常见任务,这得益于Python简洁的语法以及其广泛使用的第三方。为了完成这项工作,首先需要确保系统中有必要的工具和依赖项。 #### 安装pip 对于尚未配置好pip的情况,在终端执行如下命令来安装它: ```bash wget https://bootstrap.pypa.io/pip/2.7/get-pip.py python get-pip.py ``` 此过程会下载并安装最新版本的pip到当前用户的Python环境中[^3]。 #### 准备阶段:安装所需 接下来,通过pip安装两个核心——`requests`用于发起HTTP请求;`beautifulsoup4`负责解析HTML文档结构。具体操作如下所示: ```bash pip install requests beautifulsoup4 ``` 这两个构成了基本框架的基础组件,使开发者能够轻松地向目标网站发送请求,并从中抽取有用的信息[^4]。 #### 编写简单爬虫脚本 有了上述准备之后,现在可以编写一段简单Python代码来进行实际的数据抓取活动。下面是一个例子,展示了如何从指定URL加载页面内容,并将其转换为易于阅读的形式输出出来: ```python import requests from bs4 import BeautifulSoup url = 'https://www.example.com/' response = requests.get(url) if response.status_code == 200: soup = BeautifulSoup(response.text, 'html.parser') print(soup.prettify()) else: print('Failed to retrieve the webpage') ``` 这段代码实现了最基本的爬虫功能,即连接至给定网址、获取响应体内的HTML源码并通过BeautifulSoup对象对其进行格式化展示。如果一切顺利的话,最终会在控制台看到经过整理后的网页布局。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值