BeautifulSoup对象select()方法之gpt介绍

BeautifulSoup 对象的 select() 方法是一个强大的工具,用于通过 CSS 选择器语法在 HTML 文档中查找元素。它返回一个列表,其中包含所有匹配指定选择器的元素。以下是一些常用的 select() 方法的用法及其详细说明:

1. 基础选择器

  • 标签选择器:选择所有给定标签的元素。

    soup.select('p')  # 选择所有 <p> 元素
    
  • 类选择器:选择具有指定类的元素。类名前面加 .

    soup.select('.story')  # 选择 class="story" 的元素
    
  • ID 选择器:选择具有指定 ID 的元素。ID 前面加 #

    soup.select('#link1')  # 选择 id="link1" 的元素
    

2. 组合选择器

  • 标签与类组合:选择指定标签且具有指定类的元素。

    soup.select('a.sister')  # 选择所有 <a> 元素,且其 class 包含 "sister"
    
  • 多类选择:选择同时具有多个类的元素。多个类之间没有空格。

    soup.select('a.sister.haha.xixi')  # 选择 class 包含 "sister"、"haha" 和 "xixi" 的 <a> 元素
    
  • 标签与ID组合:选择指定标签且具有指定 ID 的元素。

    soup.select('p#link1')  # 选择 id="link1" 的 <p> 元素
    

3. 层级选择器

  • 子元素选择器:使用 > 表示直接子元素。

    soup.select('body > p')  # 选择 <body> 的直接子元素 <p>
    
  • 后代选择器:使用空格表示后代元素(不一定是直接子元素)。

    soup.select('body p')  # 选择 <body> 的所有后代元素 <p>
    

4. 属性选择器

  • 属性选择:选择具有特定属性的元素。

    soup.select('a[href]')  # 选择所有带有 href 属性的 <a> 元素
    
  • 特定属性值选择:选择属性值等于指定值的元素。

    soup.select('a[href="http://example.com/elsie"]')  # 选择 href 属性等于 "http://example.com/elsie" 的 <a> 元素
    

5. 伪类选择器

  • 第一个子元素:选择第一个符合条件的元素。

    soup.select('p:first-child')  # 选择所有 <p> 元素中第一个子元素
    
  • 最后一个子元素:选择最后一个符合条件的元素。

    soup.select('p:last-child')  # 选择所有 <p> 元素中最后一个子元素
    

示例代码

from bs4 import BeautifulSoup

html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister haha xixi" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
"""

soup = BeautifulSoup(html_doc, 'lxml')

# 使用 select 方法找到所有类为 'sister' 的 <a> 元素
sister_links = soup.select('a.sister')
for link in sister_links:
    print(link['href'], link.text)

总结

select() 方法非常灵活,可以用来根据标签、类、ID、属性以及它们的组合来选择元素。你可以使用 CSS 选择器的几乎所有特性,从而高效地提取你需要的信息。

import requests from bs4 import BeautifulSoup import pandas as pd # 定义函数:根据关键词获取百度百科的简介内容 def get_baidu_baike_summary(keyword): url = f"https://baike.baidu.com/item/{keyword}" headers = { "User-Agent": "Mozilla/5.0" } response = requests.get(url, headers=headers) response.encoding = 'utf-8' if response.status_code != 200: print(f"请求失败: {keyword}, 状态码: {response.status_code}") return None soup = BeautifulSoup(response.text, 'html.parser') summary_classes = [ "lemmaSummary_Ojy0G J-summary", "basicInfo_X50Uy J-basic-info", "catalogWrapper_oiGvK", "J-lemma-content" ] all_summaries = [] for cls in summary_classes: for tag in soup.select(f'div.{cls.replace(" ", ".")}'): text = tag.get_text(strip=True) if text and text not in all_summaries: all_summaries.append(text) if all_summaries: return "\n\n".join(all_summaries) para_divs = soup.find_all("div", class_="para") if para_divs: return "\n\n".join(p.get_text(strip=True) for p in para_divs[:3]) return "没有找到简介内容" # 要查询的关键词列表 keywords = ["知识图谱", "知识域", "结构关系","可视化技术","数据挖掘","机器学习","知识资源","信息科学"] # 存储结果的列表 results = [] # 遍历每个关键词并抓取简介 for keyword in keywords: summary = get_baidu_baike_summary(keyword) results.append({ "关键词": keyword, "简介内容": summary }) print(f"{keyword} 简介内容:\n{summary}\n{'='*40}") # 创建 DataFrame df = pd.DataFrame(results) # 写入 Excel 文件 output_file = "百科简介结果.xlsx" df.to_excel(output_file, index=False, engine='openpyxl') print(f"所有数据已成功保存到文件: {output_file}") # 读取之前采集的Excel文件 df = pd.read_excel("百科简介结果.xlsx", engine='openpyxl') texts = df["简介内容"].dropna().tolist() import jieba.posseg as pseg for i, text in enumerate(texts[:3]): # 示例处理前3条 print(f"\n【词条{i+1}】:") words = pseg.cut(text) for word, flag in words: print(f"{word}/{flag}", end=' ')针对采集的内容(长文本),采用自然语言处理工具进行分析(包含分词、词性分析、语义标注、语法分析等)
最新发布
07-10
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值