【Python】bs4库

本文深入探讨了Python中BeautifulSoup库(简称bs4)的使用,包括如何解析HTML和XML文档,查找元素,提取数据以及常用方法。通过实例展示了bs4在网页抓取中的强大功能,帮助读者掌握网页数据提取的基本技巧。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

 

from bs4 import BeautifulSoup
import re

html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>

<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>

<p class="story">...</p>
"""

'''根据网页字符串创建soup对象'''
soup = BeautifulSoup(
    html_doc,               # HTML 文档字符串
    'html.parser',          # HTML 解析器
    from_encoding='utf-8',  # HTML 文档编码
)

print(' Get all links')
links = soup.find_all('a')
for link in links:
    print(link.name, link['href'], link.get_text())

print(' Get Lacie"s links')
links_node = soup.find('a', href='http://example.com/lacie')  # 应使用find方法取标签。
print(links_node.name, links_node['href'], links_node.get_text())

print(' Get regular expression')
links_node = soup.find('a', href=re.compile(r"ill"))  # 应使用find方法取标签。
print(links_node.name, links_node['href'], links_node.get_text())

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值