Python爬虫(二)数据解析Xpath

这篇博客介绍了如何利用Python的lxml库中的XPath方法来解析HTML文档。首先讲解了XPath的安装和解析原理,然后通过实例展示了如何实例化etree对象、加载数据以及使用XPath表达式进行标签定位和文本数据提取。示例中演示了如何获取网页上的城市数据,通过混合使用绝对路径和属性定位提取所需信息。最后,文章强调了XPath方法返回值为列表的事实,并提供了实战代码片段来爬取并打印所有城市名称。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

xpath的使用

  • 安装
    -pip install lxml
  • 解析原理(流程)
    -实例化一个etree对象,将需要解析的数据加载到改对象中
    -调用etree对象中的xpath方法结合不同的xpath表达式进行标签定位和文本数据提取
  • etree对象实例化
    - etree.parse(“FilePath”):将本地数据加载到etree对象中
    - etree.HTML(page_text):将爬取的数据加载到该对象中
  • html中所有标签是遵循了树状结构
  • xpath方法的返回值是一个列表

使用

  • 标签定位
    - 最左侧/:表示从根标签开始定位
    - 最左侧//:任意标签开始定位
    - 非最左侧//:表示多个层级
    - 属性定位://tagName[@attrName = ‘Value’]
    - 索引定位:tagNmae[index],index索引从1开始
    - 模糊匹配:
    - //div[contains(@class,‘ng’)]
    - //div[starts-with(@class,‘ta’)]
  • 取属性
    - @attrName

实战:爬取所有城市

from lxml import etree
# 目的:使得xpath表达式具有更强的通用性
url = 'https://www.aqistudy.cn/historydata/'
page_text = requests.get(url,headers=headers).text

tree = etree.HTML(page_text)
# hot_cities = tree.xpath('//div[@class="bottom"]/ul/li/a/text()')
all_cities = tree.xpath('//div[@class="bottom"]/ul/div[2]/li/a/text() | //div[@class="bottom"]/ul/li/a/text()')
print(all_cities)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值