python爬虫学习笔记 -- 信息提取 及HTML内容查找方法(soup.find_all()) + 正则表达式

方法一: 完整解析信息的标记形式,再提取关键信息

需要标记解析器(例如bs4库的标签树遍历)

优点: 信息解析准确

缺点:提取过程繁琐, 速度慢

 

方法二: 无视标记形式,直接搜索关键信息

直接对信息的文本查找函数即可

优点:简介, 快速

缺点:提取结果准确性与信息内容相关

 

融合方法:结合形式的解析和搜索方法,提取关键信息

XML JSON YAML搜索

需要标记解析器及文本查找函数

 

例:

for link in soup.find_all('a'):

    print(link.get('href'))

//输出所有的url链接

//href属性用于指定超链接目标的URL

 

<>.find_all(name, attrs, recursive, string, **kwrs)

查找soup中的变量内容, 返回值是符合条件的标签列表形式

// soup.find_all('a') / find_all(['a', 'b'])

name: 对标签名的检索字符串

attrs:对标签属性值的检索字符串,可标注属性检索

//直接检索属性域: find_all(id = 'link1')

recursive : 是否对子孙全部检索, 默认True,如果只想搜索当前节点的儿子节点层信息,应设置为False

// soup.find_all('a', recursive = 'False') -- 表示当前节点的子节点层无‘a’开头的标签

string: 标签<>...</>中字符串区域的检索字符串

 

find_all()的简易形式:

<tag>(...) 等价于 <tag>.find_all()

soup(...) 等价于 soup.find_all()

 

import re -- 正则表达式库

re.compile('b') // 返回所有以b开头的信息

soup.find_all(re.compile('b'))

正则表达式: 可以对需要检索的信息进行筛选

 

find_all()扩展方法(同find_all()参数):

1. <>.find() // 搜索且只返回一个结果

2. <>find_parents() // 先辈节点中搜索,返回列表类型

3.<>find_parent() // 返回一个结果

4.<>find_next_siblings() / <>find_next_sibling() // 后续平行节点中搜索,返回列表/一个值

5.<>find_previous_siblings() / <>find_previous_sibling() // 前序平行节点中搜索,返回列表/一个值

 

 

### Python 爬虫学习笔记 #### 获取数据地址信息 了解并掌握网址结构对于编写有效的爬虫程序至关重要。URL(统一资源定位符)用于指定网络上资源的位置,这是启动任何爬虫项目的起点[^1]。 ```python import urllib.parse def parse_url(url_string): result = urllib.parse.urlparse(url_string) print(f'Scheme: {result.scheme}') print(f'Netloc (Domain): {result.netloc}') print(f'Path: {result.path}') # 示例调用函数解析 URL parse_url('https://www.example.com/path/to/resource?query=string') ``` #### 安装 `requests` 库 为了简化HTTP请求处理过程,在Python环境中安装第三方库`requests`是非常推荐的做法。这可以通过不同的方式完成取决于操作系统环境: - Windows 用户可以在命令提示符中执行 `pip install requests` - Linux 用户可能需要管理员权限,因此应使用 `sudo pip install requests` 命令[^2] #### 发起 HTTP 请求 一旦安装好必要的工具包,就可以利用这些工具向目标网站发送GET/POST等类型的HTTP请求,并接收服务器返回的数据流作为响应对象。 ```python import requests response = requests.get('http://example.com') if response.status_code == 200: content = response.text else: raise Exception("Failed to load page {}".format(response.status_code)) ``` #### 数据解析技术 当接收到HTML文档或其他形式的内容后,下一步就是从中提取有用的信息片段。常用的方法包括但不限于正则表达式、BeautifulSoup以及XPath等几种主流手段[^3]。 ##### 使用 BeautifulSoup 解析 HTML 文档 ```python from bs4 import BeautifulSoup soup = BeautifulSoup(content, 'html.parser') # 初始化 Beautiful Soup 对象 links = soup.find_all('a', href=True) # 查找所有的超链接标签 for link in links: print(link['href']) # 输出每个链接的目标 URL ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值