【python】爬虫笔记-用xpath提取网页内容总是重复提取的解决

在网页内容解析过程中,遇到标题提取的问题,原本的XPath定位使用了绝对路径,导致所有内容相同。通过调整XPath表达式,将绝对路径改为相对路径,并修正了漏掉的`a`标签,成功解决了问题。最终优化后的代码简洁且能正确提取每个标题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

提取网页中的每个标题,成功执行,但所有内容都是一样的

    tree = etree.HTML(page_text)
    fp = open('58.txt','w',encoding='utf-8')
    li_list = tree.xpath('//section[@data-bottom="250"]/ul/li[@class="item-wrap"]') 
    for li in li_list:
        title = li.xpath('//div[@class="title-wrap lines2"]/span/text()')[0]
        fp.write(title+'\n')

回去网页查了半天,应该是xpath的定位出了问题:
为了省事直接用了//
问题原因:
自定义的xpath不能以//或/开头,因为这个表示了绝对定位。
应该以./开头

于是第一次修改了代码:

title = li.xpath('./div[@class="content-wrap"]//span/text()')[0]

报错:

IndexError: list index out of range

回去查发现漏了一个标签a

itle = li.xpath('./a/div[@class="content-wrap"]//span/text()')[0]

不够简洁,再修改了一下:

title = li.xpath('./a//span/text()')[0]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值