xpath 获取元素及爬虫实例

本文介绍了使用XPath与Lxml进行网页内容抓取的方法。详细讲述了Lxml的工作原理及其优势,包括快速解析不规范HTML的能力,并通过实际案例展示了XPath表达式的运用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

主流爬虫方法分类:
1,selenium+Chrome/PhantomJS
2,Requests+正则表达式
3,Requests+ BeautifulSoup
4,Requests+分析ajax
5,Requests+xpath(lxml包)或CSS
今天要讲的第5种。

  1. 原理:将有可能不合法的HTML 解析为统一格式。 虽然Lxml可以正确解析属性两侧缺失的引号,并闭合标签,不过该模块没有额外添加<
    html >和<body>标签 。CSS其实和lxml在内部实现相似,实际上是将CSS选择器转换为等价的Xpath选择器。
  2. 速度:Lxml模块使用 C语言编写,所以速度和re正则一样,非常快。
  3. 场景:大部分的页面解析和内容抓取。涉及到js和ajax的需要先加载js、ajax请求,再对页面进行解析和xpath定位抓取。
  4. 依赖库:lxml from lxml import etree
  5. 基本用法:Selector = etree.HTML(网页源代码)

      Selector.xpath(一段神奇的符号)
  6. xapth表达式:
    image

7,xpath推荐学习链接:
https://www.cnblogs.com/lei0213/p/7506130.html

xpath定位方法:
image
(源码见附件)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值