python BeautifulSoup用法介绍

本文介绍了Python的BeautifulSoup库,重点讲解了选择解析器、基本用法、节点选择器(包括属性选择、嵌套选择、关联选择)以及方法选择器如find_all()和find()。还提到了CSS选择器的使用,推荐使用lxml解析库进行高效的网页抓取和信息提取。

1.选择解析器

直接选择lxml,在lxml中有HTML和XML的功能,速度快,容错能力强。

2.基本用法

from bs4 import BeautifulSoup
soup = BeautifulSoup(html,'lxml')        #BeautifulSoup对象初始化
print(soup.prettify())								#把要解析的字符串按标准的缩进格式输出
print(soup.titlte.string)							#输出HTML中title节点的文本内容,string属性用以获取文本内容

3选择器

3.1 节点选择器

优点:通过属性直接进行选择,非常快速。
弊端:当有多个节点时,这种选择方式只会选择到第一个匹配的点,其他的后面节点都会忽略。

3.1.1 选择元素
from bs4 import BeautifulSoup
soup=BeautifulSoup(html,'lxml')
print(soup.title)
print(type(soup.title))   #获取数据类型  
print(soup.title.string)   #获取文本的值
print(soup.head)
print(soup.p)     # 选择p节点

上面获取的数据类型为bs4.element.Tag类型,是BeautifulSoup中的一个重要数据结构。Tag具有一些属性,比如string属性,调用该属性,可以获取节点的文本内容,接下来的输出结果正是节点的文本内容。

3.1.2 提取信息

1)获取名称

print(soup.title.name)
  1. 获取属性
    利用attrs取属性值
print (soup.p.attrs)
print(soup.p.attrs['name'])

或者直接取用在节点后用[]取用

print(soup.p['name'])
print(soup.p['class'])

3)获取文本内容.string

print(soup.p.string)  ##获取第一个p中的文本
3.1.3 嵌套选择
html='''
<html><head><title>The Dormouse's story</title></head>
<body>
'''
from bs4 import BeautifulSoup
soup=BeautifulSoup(html,'lxml')
print(soup.head.title)
print(soup.head.title.string)

在调用head之后再调用title节点元素,可以依此做嵌套选择

3.1.4 关联选择

1)获取直接子节点
contents或者children

print(soup.p.contents)

contents会返回p节点中的子节点和文本
children同样,但是结果是生成器类型

print(soup.p.children)
for i,child in enumerate(soup.p.children):
	print(i,child)
  1. 子孙节点
print(soup.p.descendants)
for i,child in enumerate(soup.p.descendants):
	print(i,child)

descendants会递归查询所有子节点和孙节点,即一条一条返回所有的子节点和孙节点
3)父节点和祖先节点

print(soup.a.parent)   #选择第一个a节点的直接父节点元素
print(soup.a.parents)  #选择第一个a节点的所有父节点元素,返回生成器类型
print(list(enumerate(soup.a.parents)))  #利用列表输出其索引和内容

4)兄弟节点

print(soup.a.next_sibling)   #获取下一个节点
print(soup.a.previous_sibling)   #获取上一个节点
print(list(enumerate(soup.a.next_siblings)))  #返回a后面的节点
print(list(enumerate(soup.a.next_siblings)))  #返回a前面的节点

5)提取信息

print(soup.a.next_sibling.string) ##  获取下一个节点的文本信息
print(soup.a.parents)[0].attrs(['class']) ##获取第一个父节点的属性class

3.2 方法选择器

find_all()和find()

3.2.1 find_all()

find_all() 顾名思议,查询所有符合条件的元素,给它传入一些属性或文本,就可以得到符合条件的元素,功能十分强大。
API如下:

find_all(name,attrs,rescursive,text,**kwargs)

1)name

from bs4 import Beautifulsoup
soup=BeautifulSoup(html,'lxml')
print(soup.find_all(name='ul'))  ##查询所有ul节点

2)嵌套查询
因为上面name返回的是tag类型,所以可以继续查询,查询ul之后的li节点

for ul in soup.find_all(name='ul'):
	print(ul.find_all(name='li'))

返回依然是tag类型,可以继续查询至li的文本内容

for ul in soup.find_all(name='ul'):
	print(ul.find_all(name='li'))
for li in ul.find_all(name='li'):
   print(li.string)
  1. attrs
    除了根据节点名查询,还可以传入一些属性来查询
print(soup.find_all(attrs={'id':'list-1'}))
print(soup.find_all(attrs={'name':'elements'}))

attrs参数是字典类型
对于一些常用的类型可以不用attrs来传递,可以直接写入

print(soup.find_all(id='list-1'))
print(soup.find_all(class_='element'))

由于class在python里是一个关键字,所有后面需要加一个下划线
4)text
text参数用来匹配节点的文本,传入的形式可以是字符串,可以是正则表达式对象

print(soup.find_all(text=re.compile('link')))

上述输入为正则表达式输入,结果返回所有匹配正则表达式的节点文本组成的列表

3.2.2 find()

与前面的基础用法一致,只返回单个元素
find_all() 与find()用法完全一致,只不过查询范围不同

find_parents(),find_parent()前者返回所有祖先节点,后者返回直接父节点
find_next_siblings(),find_next_sibling()前者返回所有兄弟节点,后者返回后面第一个兄弟节点
find_previous_siblings()和find_previous_sibling()前者返回前面所有的兄弟节点,后者返回前面第一个兄弟节点
find_all_text(),find_text() 前者返回所有符合条件的节点,后者返回第一个符合条件的节点
find_all_previous() ,find_previous()前者返回节点前所有符合条件的节点,后者返回第一个符合条件的节点

3.3 CSS选择器

使用CSS选择器只需要调用select()方法,传入相应的CSS选择器即可
1)基础选择

from bs4 import BeautifulSoup
soup=BeautifulSoup(html,'lxml')
print(soup.select('.panel.panel-heading'))  ## 选择class为panel下class为panel-heading的节点
print(soup.select('ul li'))   ##选择ul节点下的li节点
print(soup.select('#list-2.element'))    ##选择id为list-2下class为element的节点内容

2)嵌套选择

for ul in soup.select('ul'):
	print(ul.select('li'))

3)获取属性

for ul in soup.select('ul'):
	print(ul['id'])  
	print(ul.attrs['id'])
  1. 获取文本
    除了string以外,还可以使用get_text()方法
for li in soup.select('li'):
	print(li.get_text())
	print(li.string)

4 总结

推荐使用lxml解析库,必要时使用html.parser

节点选择筛选功能弱但是速度快

建议使用find()或者find_all()查询匹配单个结果或者多个结果

如果对CSS选择器熟悉的话,可以使用select() 方法选择

PythonBeautifulSoup是一个用于解析HTML和XML文档的Python库。它可以帮助我们从网页中提取出需要的信息。 使用BeautifulSoup的第一步是导入该库。可以使用以下代码导入BeautifulSoup: ``` from bs4 import BeautifulSoup ``` 接下来,我们需要将要解析的HTML或XML文档传递给BeautifulSoup的构造函数,以创建一个BeautifulSoup对象。例如,可以使用以下代码创建一个BeautifulSoup对象: ``` soup = BeautifulSoup(html_doc, 'html.parser') ``` 在这里,`html_doc`是要解析的HTML或XML文档的字符串。 一旦我们创建了BeautifulSoup对象,我们就可以使用它来查找和提取我们需要的信息。以下是一些常见的用法: 1. 查找标签:使用`find()`或`find_all()`方法来查找具有特定标签的元素。例如,可以使用以下代码查找所有的`<a>`标签: ``` soup.find_all('a') ``` 2. 获取属性:可以使用`get()`方法来获取元素的属性值。例如,可以使用以下代码获取第一个`<a>`标签的`href`属性值: ``` soup.find('a').get('href') ``` 3. 获取文本:可以使用`text`属性来获取元素的文本内容。例如,可以使用以下代码获取第一个`<h1>`标签的文本内容: ``` soup.find('h1').text ``` 这只是BeautifulSoup的一些用法示例,还有更多的功能和方法可以帮助我们处理和分析网页信息。如果你想深入了解BeautifulSoup用法,可以参考官方文档,文档中提供了详细的教程和示例。 总结一下,通过导入BeautifulSoup库、创建BeautifulSoup对象,并使用其提供的方法和属性,我们可以方便地解析和提取网页中的信息。希望这些信息对你有所帮助!<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [python使用BeautifulSoup分析网页信息的方法](https://download.youkuaiyun.com/download/weixin_38669729/12878332)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [[Python从零到壹] 五.网络爬虫之BeautifulSoup基础语法万字详解](https://blog.youkuaiyun.com/Eastmount/article/details/109497225)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值