python 3.5 爬虫日记2

本文介绍了一个简单的糗事百科爬虫程序实现过程,通过Python的urllib库发送请求,并利用正则表达式解析网页内容,抓取了作者名称、段子内容及互动数据等信息。
from urllib import request

#输入正则表达式模块

import re

page=1
url='http://www.qiushibaike.com/8hr/page/1'
r=request.Request(url)

r.add_header('User-Agent','ABC')

#读取首页原码并命名为content

content=request.urlopen(r).read().decode('utf-8')

#用compile方法预编译,即制定匹配规则:re.compile函数有两个参数(pattern,flag=0),若flag参数为re.S,则正则表达式中的“.”也可以表示一行(默认“.”表示除行以外的任何字符。主要使用.*?和(.*?)两个组合,.*? 是一个固定的搭配,.和*代表可以匹配任意无限多个字符,加上?表示使用非贪婪模式进行匹配,也就是我们会尽可能短地做匹配,以后我们还会大量用到 .*? 的搭配。(.*?)代表一个分组,在这个正则表达式中我们匹配了五个分组,在后面的遍历item中,item[0]就代表第一个(.*?)所指代的内容,item[1]就代表第二个(.*?)所指代的内容,以此类推。{此处引用http://cuiqingcai.com/990.html}

pattern=re.compile('<div class.*?author.*?title="(.*?)".*?"content">.(.*?)<!.*?'+
                   'stats.*?number">(.*?)</i.*?number">(.*?)</i.*?</div>',re.S)

#findall函数在给定字符串中查找所有符合上述正则规则的表达式。

items=re.findall(pattern,content)

for item in items:
    print('作者  '+item[0]+'\n',item[1]+'\n','喜欢数 '+item[2],'评论数 '+item[3]+'\n'*2)
一、数据采集层:多源人脸数据获取 该层负责从不同设备 / 渠道采集人脸原始数据,为后续模型训练与识别提供基础样本,核心功能包括: 1. 多设备适配采集 实时摄像头采集: 调用计算机内置摄像头(或外接 USB 摄像头),通过OpenCV的VideoCapture接口实时捕获视频流,支持手动触发 “拍照”(按指定快捷键如Space)或自动定时采集(如每 2 秒采集 1 张),采集时自动框选人脸区域(通过Haar级联分类器初步定位),确保样本聚焦人脸。 支持采集参数配置:可设置采集分辨率(如 640×480、1280×720)、图像格式(JPG/PNG)、单用户采集数量(如默认采集 20 张,确保样本多样性),采集过程中实时显示 “已采集数量 / 目标数量”,避免样本不足。 本地图像 / 视频导入: 支持批量导入本地人脸图像文件(支持 JPG、PNG、BMP 格式),自动过滤非图像文件;导入视频文件(MP4、AVI 格式)时,可按 “固定帧间隔”(如每 10 帧提取 1 张图像)或 “手动选择帧” 提取人脸样本,适用于无实时摄像头场景。 数据集对接: 支持接入公开人脸数据集(如 LFW、ORL),通过预设脚本自动读取数据集目录结构(按 “用户 ID - 样本图像” 分类),快速构建训练样本库,无需手动采集,降低系统开发与测试成本。 2. 采集过程辅助功能 人脸有效性校验:采集时通过OpenCV的Haar级联分类器(或MTCNN轻量级模型)实时检测图像中是否包含人脸,若未检测到人脸(如遮挡、侧脸角度过大),则弹窗提示 “未识别到人脸,请调整姿态”,避免无效样本存入。 样本标签管理:采集时需为每个样本绑定 “用户标签”(如姓名、ID 号),支持手动输入标签或从 Excel 名单批量导入标签(按 “标签 - 采集数量” 对应),采集完成后自动按 “标签 - 序号” 命名文件(如 “张三
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值