BeautifulSoup对象select()方法之gpt介绍

BeautifulSoup 对象的 select() 方法是一个强大的工具,用于通过 CSS 选择器语法在 HTML 文档中查找元素。它返回一个列表,其中包含所有匹配指定选择器的元素。以下是一些常用的 select() 方法的用法及其详细说明:

1. 基础选择器

  • 标签选择器:选择所有给定标签的元素。

    soup.select('p')  # 选择所有 <p> 元素
    
  • 类选择器:选择具有指定类的元素。类名前面加 .

    soup.select('.story')  # 选择 class="story" 的元素
    
  • ID 选择器:选择具有指定 ID 的元素。ID 前面加 #

    soup.select('#link1')  # 选择 id="link1" 的元素
    

2. 组合选择器

  • 标签与类组合:选择指定标签且具有指定类的元素。

    soup.select('a.sister')  # 选择所有 <a> 元素,且其 class 包含 "sister"
    
  • 多类选择:选择同时具有多个类的元素。多个类之间没有空格。

    soup.select('a.sister.haha.xixi')  # 选择 class 包含 "sister"、"haha" 和 "xixi" 的 <a> 元素
    
  • 标签与ID组合:选择指定标签且具有指定 ID 的元素。

    soup.select('p#link1')  # 选择 id="link1" 的 <p> 元素
    

3. 层级选择器

  • 子元素选择器:使用 > 表示直接子元素。

    soup.select('body > p')  # 选择 <body> 的直接子元素 <p>
    
  • 后代选择器:使用空格表示后代元素(不一定是直接子元素)。

    soup.select('body p')  # 选择 <body> 的所有后代元素 <p>
    

4. 属性选择器

  • 属性选择:选择具有特定属性的元素。

    soup.select('a[href]')  # 选择所有带有 href 属性的 <a> 元素
    
  • 特定属性值选择:选择属性值等于指定值的元素。

    soup.select('a[href="http://example.com/elsie"]')  # 选择 href 属性等于 "http://example.com/elsie" 的 <a> 元素
    

5. 伪类选择器

  • 第一个子元素:选择第一个符合条件的元素。

    soup.select('p:first-child')  # 选择所有 <p> 元素中第一个子元素
    
  • 最后一个子元素:选择最后一个符合条件的元素。

    soup.select('p:last-child')  # 选择所有 <p> 元素中最后一个子元素
    

示例代码

from bs4 import BeautifulSoup

html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister haha xixi" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
"""

soup = BeautifulSoup(html_doc, 'lxml')

# 使用 select 方法找到所有类为 'sister' 的 <a> 元素
sister_links = soup.select('a.sister')
for link in sister_links:
    print(link['href'], link.text)

总结

select() 方法非常灵活,可以用来根据标签、类、ID、属性以及它们的组合来选择元素。你可以使用 CSS 选择器的几乎所有特性,从而高效地提取你需要的信息。

import requests from bs4 import BeautifulSoup import pandas as pd # 定义函数:根据关键词获取百度百科的简介内容 def get_baidu_baike_summary(keyword): url = f"https://baike.baidu.com/item/{keyword}" headers = { "User-Agent": "Mozilla/5.0" } response = requests.get(url, headers=headers) response.encoding = 'utf-8' if response.status_code != 200: print(f"请求失败: {keyword}, 状态码: {response.status_code}") return None soup = BeautifulSoup(response.text, 'html.parser') summary_classes = [ "lemmaSummary_Ojy0G J-summary", "basicInfo_X50Uy J-basic-info", "catalogWrapper_oiGvK", "J-lemma-content" ] all_summaries = [] for cls in summary_classes: for tag in soup.select(f'div.{cls.replace(" ", ".")}'): text = tag.get_text(strip=True) if text and text not in all_summaries: all_summaries.append(text) if all_summaries: return "\n\n".join(all_summaries) para_divs = soup.find_all("div", class_="para") if para_divs: return "\n\n".join(p.get_text(strip=True) for p in para_divs[:3]) return "没有找到简介内容" # 要查询的关键词列表 keywords = ["知识图谱", "知识域", "结构关系","可视化技术","数据挖掘","机器学习","知识资源","信息科学"] # 存储结果的列表 results = [] # 遍历每个关键词并抓取简介 for keyword in keywords: summary = get_baidu_baike_summary(keyword) results.append({ "关键词": keyword, "简介内容": summary }) print(f"{keyword} 简介内容:\n{summary}\n{'='*40}") # 创建 DataFrame df = pd.DataFrame(results) # 写入 Excel 文件 output_file = "百科简介结果.xlsx" df.to_excel(output_file, index=False, engine='openpyxl') print(f"所有数据已成功保存到文件: {output_file}") # 读取之前采集的Excel文件 df = pd.read_excel("百科简介结果.xlsx", engine='openpyxl') texts = df["简介内容"].dropna().tolist() import jieba.posseg as pseg for i, text in enumerate(texts[:3]): # 示例处理前3条 print(f"\n【词条{i+1}】:") words = pseg.cut(text) for word, flag in words: print(f"{word}/{flag}", end=' ')针对采集的内容(长文本),采用自然语言处理工具进行分析(包含分词、词性分析、语义标注、语法分析等)
最新发布
07-10
你希望针对采集的百度百科简介内容进行自然语言处理分析,包括分词、词性标注、语义标注和语法分析。下面我将详细展示如何使用 Python 的 `jieba` 和 `LTP(哈工大语言技术平台)` 来实现这些功能。 ### ✅ 1. 分词与词性标注(使用 jieba) ```python import jieba.posseg as pseg # 示例:对前3条简介内容进行分词和词性标注 for i, text in enumerate(texts[:3]): print(f"\n【词条{i+1}】:") words = pseg.cut(text) for word, flag in words: print(f"{word}/{flag}", end=' ') ``` **解释:** - `pseg.cut()` 对文本进行分词,并返回词语及其词性。 - `texts` 是从 Excel 中读取的简介内容列表。 - 每个词后面显示其对应的词性标签(如名词 n、动词 v 等)。 --- ### ✅ 2. 语义标注(使用 LTP) 要进行语义角色标注(SRL)或命名实体识别(NER),我们可以使用 [LTP](https://ltp.ai/) 工具包: #### 安装: ```bash pip install pyltp ``` #### 示例代码: ```python from pyltp import SentenceSplitter, Segmentor, Postagger, Parser, NamedEntityRecognizer, SementicRoleLabeller import os # 设置模型路径(需要下载 LTP 模型包) LTP_DATA_DIR = './ltp_data_v3.4.0' # 替换为你自己的模型路径 cws_model_path = os.path.join(LTP_DATA_DIR, 'cws.model') # 分词模型 pos_model_path = os.path.join(LTP_DATA_DIR, 'pos.model') # 词性标注模型 ner_model_path = os.path.join(LTP_DATA_DIR, 'ner.model') # 命名实体识别模型 parser_model_path = os.path.join(LTP_DATA_DIR, 'parser.model')# 依存句法分析模型 srl_model_path = os.path.join(LTP_DATA_DIR, 'srl') # 语义角色标注模型 # 初始化模块 segmentor = Segmentor() segmentor.load(cws_model_path) postagger = Postagger() postagger.load(pos_model_path) recognizer = NamedEntityRecognizer() recognizer.load(ner_model_path) parser = Parser() parser.load(parser_model_path) labeller = SementicRoleLabeller() labeller.load(srl_model_path) # 处理每条文本 for i, text in enumerate(texts[:3]): print(f"\n\n【词条{i+1}】:{text}") # 分句 sents = SentenceSplitter.split(text) for sent in sents: if len(sent.strip()) == 0: continue print("\n句子:", sent) # 分词 words = segmentor.segment(sent) word_list = list(words) print("分词结果:", "/".join(word_list)) # 词性标注 postags = postagger.postag(word_list) print("词性标注:", "\t".join(postags)) # 命名实体识别 netags = recognizer.recognize(word_list, postags) print("命名实体识别:", "\t".join(netags)) # 句法分析 arcs = parser.parse(word_list, postags) print("句法分析:") print("\n".join("%d:%s" % (arc.head, arc.relation) for arc in arcs)) # 语义角色标注 roles = labeller.label(word_list, postags, arcs) for role in roles: print(f"谓词 {role.index}:") for arg in role.arguments: print(f" 参数类型: {arg.name}, 起始位置: {arg.start}, 结束位置: {arg.end}, 内容: {''.join(word_list[arg.start:arg.end+1])}") # 释放资源 segmentor.release() postagger.release() recognizer.release() parser.release() labeller.release() ``` **解释:** - 使用 LTP 提供的多个模型进行: - 分词(`Segmentor`) - 词性标注(`Postagger`) - 命名实体识别(`NamedEntityRecognizer`) - 依存句法分析(`Parser`) - 语义角色标注(`SementicRoleLabeller`) - 所有模型需先下载并解压到本地目录。 --- ### ✅ 3. 其他 NLP 工具推荐(可选) 如果你希望更强大的语义理解能力,可以考虑以下工具: - **Transformers(HuggingFace)**:支持 BERT、GPT 等预训练模型,适合深度语义分析。 - **StanfordNLP / Stanza**:斯坦福提供的多语言 NLP 工具包。 - **THULAC / HanLP / SnowNLP**:中文处理的替代方案。 --- ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值