python模块——Beautiful Soup模块(bs4)

BeautifulSoup是一个Python库,用于从HTML和XML文件中提取数据。通过导航、查找和修改文档,它能简化网页抓取任务。文章介绍了如何引入模块,使用方法如获取标签、属性值和内容,以及格式化输出。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

bs4模块

一、模块简介

Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup会帮你节省数小时甚至数天的工作时间.

二、方法利用

1.引入模块

# 引入
html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
"""

from bs4 import BeautifulSoup
soup = BeautifulSoup(html_doc, 'html.parser')
四种解析器

2.几个简单的浏览结构化数据的方法:

#获取Tag,通俗点就是HTML中的一个个标签
#获取Tag,通俗点就是HTML中的一个个标签
soup.title                    # 获取整个title标签字段:<title>The Dormouse's story</title>
soup.title.name               # 获取title标签名称  :title
soup.title.parent.name        # 获取 title 的父级标签名称:head

soup.p                        # 获取第一个p标签字段:<p class="title"><b>The Dormouse's story</b></p>
soup.p['class']               # 获取第一个p中class属性值:title
soup.p.get('class')           # 等价于上面

soup.a                        # 获取第一个a标签字段
soup.find_all('a')            # 获取所有a标签字段
soup.find(id="link3")         # 获取属性id值为link3的字段
soup.a['class'] = "newClass"  # 可以对这些属性和内容等等进行修改
del bs.a['class']             # 还可以对这个属性进行删除

soup.find('a').get('id')      # 获取class值为story的a标签中id属性的值

soup.title.string             # 获取title标签的值  :The Dormouse's story

三、具体利用

1、获取拥有指定属性的标签

方法一:获取单个属性
soup.find_all('div',id="even")            # 获取所有id=even属性的div标签
soup.find_all('div',attrs={'id':"even"})    # 效果同上

方法二:
soup.find_all('div',id="even",class_="square")            # 获取所有id=even并且class=square属性的div标签
soup.find_all('div',attrs={"id":"even","class":"square"})    # 效果同上

2、获取标签的属性值

方法一:通过下标方式提取
for link in soup.find_all('a'):
    print(link['href'])        //等同于 print(link.get('href'))

方法二:利用attrs参数提取
for link in soup.find_all('a'):
    print(link.attrs['href'])

3、获取标签中的内容

divs = soup.find_all('div')        # 获取所有的div标签
for div in divs:                   # 循环遍历div中的每一个div
    a = div.find_all('a')[0]      # 查找div标签中的第一个a标签      
    print(a.string)              # 输出a标签中的内容

如果结果没有正确显示,可以转换为list列表

4、去除\n换行符等其他内容   stripped_strings

divs = soup.find_all('div')
for div in divs:
    infos = list(div.stripped_strings)        # 去掉空格换行等
    bring(infos)

四、输出

1、格式化输出   prettify()

prettify() 方法将Beautiful Soup的文档树格式化后以Unicode编码输出,每个XML/HTML标签都独占一行
markup = '<a href="http://example.com/">I linked to <i>example.com</i></a>'
soup = BeautifulSoup(markup)
soup.prettify()
# '<html>\n <head>\n </head>\n <body>\n  <a href="http://example.com/">\n...'

print(soup.prettify())
# <html>
#  <head>
#  </head>
#  <body>
#   <a href="http://example.com/">
#    I linked to
#    <i>
#     example.com
#    </i>
#   </a>
#  </body>
# </html>

2、get_text()

如果只想得到tag中包含的文本内容,那么可以调用 get_text() 方法,这个方法获取到tag中包含的所有文版内容包括子孙tag中的内容,并将结果作为Unicode字符串返回:
markup = '<a href="http://example.com/">\nI linked to <i>example.com</i>\n</a>'
soup = BeautifulSoup(markup)

soup.get_text()
u'\nI linked to example.com\n'
soup.i.get_text()
u'example.com'

BeautifulSoup 是一个用于解析HTML和XML文档的Python库,它能够从网页中提取数据并进行处理。BeautifulSoup提供了一种简单而直观的方式来遍历、搜索和修改HTML和XML文档的标签和内容。 BeautifulSoup库可以帮助我们处理各种网页爬虫任务,例如从网页中提取特定的数据、抓取网页上的链接、爬取文章内容等。它可以根据标签、属性、内容等条件来查找文档中的特定部分,并提供了丰富的方法和属性来操作和处理这些数据。 BeautifulSoup使用了不同的解析器来解析HTML和XML文档,包括Python标准库中的html.parser解析器、lxml解析器、html5lib解析器等。可以根据需要选择合适的解析器。 BeautifulSoup主要的模块BeautifulSoup和Tag,其中BeautifulSoup用于初始化HTML或XML文档,并提供了一些方法来搜索和遍历文档中的标签和内容;Tag表示HTML或XML文档中的一个标签,它可以有子标签和属性,并提供了一些方法和属性来获取标签的内容、属性值等。 使用BeautifulSoup需要先安装该库,可以使用pip命令进行安装: ``` pip install beautifulsoup4 ``` 安装完成后,可以通过import语句将其引入到Python脚本中,然后就可以使用BeautifulSoup库提供的功能了。 下面是一个简单的例子,演示了如何使用BeautifulSoup来解析HTML文档并提取其中的数据: ```python from bs4 import BeautifulSoup html_doc = """ <html> <head> <title>Sample HTML Document</title> </head> <body> <h1>Heading 1</h1> <p>Paragraph 1</p> <p>Paragraph 2</p> </body> </html> """ soup = BeautifulSoup(html_doc, 'html.parser') # 获取标题 title = soup.title.string print("标题:", title) # 获取所有段落文本 paragraphs = soup.find_all('p') for p in paragraphs: print("段落:", p.text) ``` 以上代码会输出以下结果: ``` 标题: Sample HTML Document 段落: Paragraph 1 段落: Paragraph 2 ``` 通过调用BeautifulSoup的构造函数,我们将HTML文档作为字符串传递给它,得到一个BeautifulSoup对象。然后,我们可以使用该对象的方法和属性来查找和处理文档中的标签和内容。 解析器会将HTML文档解析成一个文档树,每个标签都被表示为一个Tag对象。我们可以使用find、find_all等方法来查找文档中的标签,然后通过Tag对象的属性和方法来获取标签的内容、属性值等。 相关问题: 1. BeautifulSoup支持哪些解析器?它们有什么区别? 2. 如何根据标签、属性等条件来查找文档中的特定部分? 3. BeautifulSoup如何处理文档中的特殊字符和注释? 4. BeautifulSoup如何处理文档中的空白字符和换行符? 5. BeautifulSoup如何修改文档中的标签和内容? 6. BeautifulSoup如何处理不完整或有错误的HTML文档?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Thunderclap_

点赞、关注加收藏~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值