python爬取网页公开数据_Python爬取网页数据

本文介绍如何使用Python的requests和lxml库轻松抓取网页数据,包括设置开发环境、获取网页源代码及解析所需信息。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

都说python爬网页数据方便,我们今天就来试试,python爬取数据到底有多方便

简介

爬取数据,基本都是通过网页的URL得到这个网页的源代码,根据源代码筛选出需要的信息

准备

IDE:PyCharm

库:requests、lxml

注:

requests:获取网页源代码

lxml:得到网页源代码中的指定数据

搭建环境

这里的搭建环境,可不是搭建python的开发环境,这里的搭建环境是指,我们使用pycharm新建一个python项目,然后弄好requests和lxml

新建一个项目:

依赖库导入

由于我们使用的是pycharm,所以我们导入这两个库就会显的格外简单import requests

这个时候,requests会报红线,这时候,我们将光标对准requests,按快捷键:alt + enter,pycharm会给出解决之道,这时候,选择install package requests,pycharm就会自动为我们安装了,我们只需要稍等片刻,这个库就安装好了。lxml的安装方式同理.

获取网页源代码

之前我就说过,requests可以很方便的让我们得到网页的源代码

网页就拿我的博客地址举例好了:https://coder-lida.github.io/

获取源码:# 获取源码

html = requests.get("https://coder-lida.github.io/")

# 打印源码

print html.text

代码就是这么简单,这个html.text便是这个URL的源码

完整代码:import requests

import lxml

html = requests.get("https://coder-lida.github.io/")

print (html.text)

打印:

获取指定数据

现在我们已经得到网页源码了,这时就需要用到lxml来来筛选出我们所需要的信息

这里我就以得到我博客列表为例,可以找到原网页通过F12查看XPath,如图

通过XPath的语法获得网页的内容。

查看第一篇文章标题//*[@id="layout-cart"]/div[1]/a/@title// 定位根节点

/ 往下层寻找

提取文本内容:/text()

提取属性内容:/@xxxximport requests

from lxml import etree

html = requests.get("https://coder-lida.github.io/")

#print (html.text)

etree_html = etree.HTML(html.text)

content = etree_html.xpath('//*[@id="layout-cart"]/div[1]/a/@title')

print(content)

查看所有文章标题//*[@id="layout-cart"]/div/a/@title

代码:import requests

from lxml import etree

html = requests.get("https://coder-lida.github.io/")

#print (html.text)

etree_html = etree.HTML(html.text)

content = etree_html.xpath('//*[@id="layout-cart"]/div/a/@title')

print(content)

输出:[' springboot逆向工程 ', ' 自己实现一个简单版的HashMap ', ' 开发中常用的 个JavaScript 单行代码 ', ' shiro 加密登录 密码加盐处理 ', ' Spring Boot构建RESTful API与单元测试 ', ' 记一次jsoup的使用 ']

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值