Python爬虫-爬取糗事百科段子

本文介绍了一次糗事百科爬虫的实践经历,详细展示了如何利用Python爬取糗事百科上的段子,并通过正则表达式筛选无图段子的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

闲来无事,学学python爬虫。

在正式学爬虫前,简单学习了下HTML和CSS,了解了网页的基本结构后,更加快速入门。

1.获取糗事百科url

http://www.qiushibaike.com/hot/page/2/    末尾2指第2页

 

2.先抓取HTML页面

import urllib
import urllib2
import re
page = 2
url = 'http://www.qiushibaike.com/hot/page/' + str(page)  #对应第2页的url
request = urllib2.Request(url)  #发出申请
response = urllib2.urlopen(request)  #收到回应

  当然这里可能会产生error:主要有HTTPError和URLError。

  产生URLError的原因可能是:

  • 网络无连接,即本机无法上网
  • 连接不到特定的服务器
  • 服务器不存在

     异常捕获解决办法:

import urllib2

requset = urllib2.Request('http://www.xxxxx.com')
try:
    urllib2.urlopen(request)
except urllib2.URLError, e:
    print e.reason

      HTTPError是URLError的子类,利用urlopen方法发出一个请求时,服务器上都会对应一个应答对象response,其中它包含一个数字”状态码”。举个例子,假如response是一个”重定向”,需定位到别的地址获取文档,urllib2将对此进行处理。常见的状态码:

     200:请求成功      处理方式:获得响应的内容,进行处理

     202:请求被接受,但处理尚未完成    处理方式:阻塞等待

     204:服务器端已经实现了请求,但是没有返回新的信 息。如果客户是用户代理,则无须为此更新自身的文档视图。    处理方式:丢弃

     404:没有找到     处理方式:丢弃

     500:服务器内部错误  服务器遇到了一个未曾预料的状况,导致了它无法完成对请求的处理。一般来说,这个问题都会在服务器端的源代码出现错误时出现。

     异常捕获解决办法:

import urllib2
 
req = urllib2.Request('http://blog.youkuaiyun.com/cqcre')
try:
    urllib2.urlopen(req)
except urllib2.HTTPError, e:
    print e.code
    print e.reason

注:HTTPError是URLError的子类,在产生URLError时也会触发产生HTTPError。因此应该先处理HTTPError。上述代码可改写为:

import urllib2
 
req = urllib2.Request('http://blog.youkuaiyun.com/cqcre')
try:
    urllib2.urlopen(req)
except urllib2.HTTPError, e:
    print e.code
except urllib2.URLError, e:
    print e.reason
else:
    print "OK"

如果无法获得回应,可能需要加入header模拟浏览器发出请求:

import urllib
import urllib2
 
page = 1
url = 'http://www.qiushibaike.com/hot/page/' + str(page)
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
headers = { 'User-Agent' : user_agent }
try:
    request = urllib2.Request(url,headers = headers)   # 加入header
    response = urllib2.urlopen(request)
    print response.read()
except urllib2.URLError, e:
    if hasattr(e,"code"):
        print e.code
    if hasattr(e,"reason"):
        print e.reason

 

3.分析页面获取段子

      如上图所示,划红对勾的是不同的段子,每个段子都由<div class="article block untagged mb15" id="...">...</div>包裹起来。我们点开其中一个,获取其中的用户名、段子内容和点赞数这三个信息。这三个信息分别用红、蓝、黑下划线圈起来。解析过程主要由正则表达式实现。

  1. 解析用户名。正则表达式为:<div class="author clearfix">.*?<h2>(.*?)</h2>   上图中用户名称为旖旎萌萌,处于<h2>和</h2>中间,用(.*?)代之。
  2. 解析段子内容。正则表达式为:<div.*?span>(.*?)</span>  同理,文字部分在<span>和</span>之间。<div .........span>之间的所有符号(含换行符)用.*?解决。
  3. 解析点赞数。正则表达式为:<div class="stats">.*?"number">(.*?)</i>  同理。用(.*?)代替1520。

正则表达式解释:(参考崔庆才博客

1).*? 是一个固定的搭配,.和*代表可以匹配任意无限多个字符,加上?表示使用非贪婪模式进行匹配,也就是我们会尽可能短地做匹配,以后我们还会大量用到 .*? 的搭配。

2)(.*?)代表一个分组,在这个正则表达式中我们匹配了五个分组,在后面的遍历item中,item[0]就代表第一个(.*?)所指代的内容,item[1]就代表第二个(.*?)所指代的内容,以此类推。

3)re.S 标志代表在匹配时为点任意匹配模式,点 . 也可以代表换行符。

content = response.read().decode('utf-8')   
pattern = re.compile('<div class="author clearfix">.*?<h2>(.*?)</h2>.*?<div.*?span>(.*?)</span>.*?<div class="stats">.*?"number">(.*?)</i>',re.S)
items = re.findall(pattern,content)  # 参考python中的re模块,作用是在content中寻找可以匹配pattern的串,即段子

但是有个问题,上面的表达式将有图和无图的段子都爬取下来了,但是在图片一般不会显示,所以需要去掉有图的段子,只爬取无图片的段子。需要稍微改动正则表达式。

上图是无图的段子html代码,下图是有图的段子的html代码:

红线划的<div class="thumb">包含了图片部分,而这条语句在无图段子的html中是不存在的,所以利用这条语句中的“img”(上图下划线)来过滤段子。同时注意到这条语句处在段子内容和点赞数中间。

所以在段子内容和点赞这两个正则语句之间加上一个(.*?)即可,这样一来,只要检测到包括“img”,就过滤掉。

content = response.read().decode('utf-8')
pattern = re.compile('<div class="author clearfix">.*?<h2>(.*?)</h2>.*?<div.*?span>(.*?)</span>(.*?)<div class="stats">.*?"number">(.*?)</i>'  # 注意这个(.*?)
                     ,re.S)
items = re.findall(pattern,content)  # items就是根据正则表达式筛选到的字符串(html串)
for item in items:
    haveImg = re.search("img", item[2])   # 0,1,2,3分别表示用户名,段子内容,图片,点赞数。所以用item[2]来检测过滤
    if not haveImg:
        print item[0], item[1], item[3]

好,以上代码就是可以实现将一页中的无图段子全部爬取出来:代码:

import urllib
import urllib2
import re
page = 2
url = 'http://www.qiushibaike.com/hot/page/' + str(page)
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
headers = {'User-Agent':user_agent}
request = urllib2.Request(url, headers=headers)
response = urllib2.urlopen(request)
content = response.read().decode('utf-8')
pattern = re.compile('<div class="author clearfix">.*?<h2>(.*?)</h2>.*?<div.*?span>(.*?)</span>(.*?)<div class="stats">.*?"number">(.*?)</i>'
                     ,re.S)
items = re.findall(pattern,content)
for item in items:
    haveImg = re.search("img", item[2])
    if not haveImg:
        print item[0], item[1], item[3]

 

4.以上代码是核心,但是略有简陋,稍加修补:

# coding:utf-8

import urllib
import urllib2
import re

class Spider_QSBK:
    def __init__(self):
        self.page_index = 2
        self.enable = False
        self.stories = []
        self.user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
        self.headers = {'User-Agent':self.user_agent}

    def getPage(self, page_index):
        url = 'http://www.qiushibaike.com/hot/page/' + str(page_index)
        try:
            request = urllib2.Request(url, headers=self.headers)
            response = urllib2.urlopen(request)
            content = response.read().decode('utf-8')
            return content
        except urllib2.URLError, e:
            print e.reason
            return None

    def getStories(self,page_index):
        content = self.getPage(page_index)
        pattern = re.compile('<div class="author clearfix">.*?<h2>(.*?)</h2>.*?<div.*?span>(.*?)</span>(.*?)<div class="stats">.*?"number">(.*?)</i>'
                     ,re.S)
        items = re.findall(pattern,content)
        for item in items:
            haveImg = re.search("img", item[2])
            if not haveImg:
               self.stories.append([item[0], item[1], item[3]])
        return self.stories

    def ShowStories(self, page_index):
        self.getStories(page_index)
        for st in self.stories:
            print u"第%d页\t发布人:%s\t点赞数:%s\n%s" %(page_index, st[0], st[2], st[1])
        del self.stories

    def start(self):
        self.enable = True
#        while self.enable:
        self.ShowStories(self.page_index)
        self.page_index += 1


spider = Spider_QSBK()
spider.start()

结果一样:

 

转载于:https://www.cnblogs.com/king-lps/p/6879803.html

标题“51单片机通过MPU6050-DMP获取姿态角例程”解析 “51单片机通过MPU6050-DMP获取姿态角例程”是一个基于51系列单片机(一种常见的8位微控制器)的程序示例,用于读取MPU6050传感器的据,并通过其内置的字运动处理器(DMP)计算设备的姿态角(如倾斜角度、旋转角度等)。MPU6050是一款集成三轴加速度计和三轴陀螺仪的六自由度传感器,广泛应用于运动控制和姿态检测领域。该例程利用MPU6050的DMP功能,由DMP处理复杂的运动学算法,例如姿态融合,将加速度计和陀螺仪的据进行整合,从而提供稳定且实时的姿态估计,减轻主控MCU的计算负担。最终,姿态角据通过LCD1602显示屏以字符形式可视化展示,为用户提供直观的反馈。 从标签“51单片机 6050”可知,该项目主要涉及51单片机和MPU6050传感器这两个关键硬件组件。51单片机基于8051内核,因编程简单、成本低而被广泛应用;MPU6050作为惯性测量单元(IMU),可测量设备的线性和角速度。文件名“51-DMP-NET”可能表示这是一个与51单片机及DMP相关的网络资源或代码库,其中可能包含C语言等适合51单片机的编程语言的源代码、配置文件、用户手册、示例程序,以及可能的调试工具或IDE项目文件。 实现该项目需以下步骤:首先是硬件连接,将51单片机与MPU6050通过I2C接口正确连接,同时将LCD1602连接到51单片机的串行据线和控制线上;接着是初始化设置,配置51单片机的I/O端口,初始化I2C通信协议,设置MPU6050的工作模式和据输出速率;然后是DMP配置,启用MPU6050的DMP功能,加载预编译的DMP固件,并设置DMP输出据的中断;之后是据读取,通过中断服务程序从DMP接收姿态角据,据通常以四元或欧拉角形式呈现;再接着是据显示,将姿态角据转换为可读的度
MathorCup高校学建模挑战赛是一项旨在提升学生学应用、创新和团队协作能力的年度竞赛。参赛团队需在规定时间内解决实际问题,运用学建模方法进行分析并提出解决方案。2021年第十一届比赛的D题就是一个典型例子。 MATLAB是解决这类问题的常用工具。它是一款强大的值计算和编程软件,广泛应用于学建模、据分析和科学计算。MATLAB拥有丰富的函库,涵盖线性代、统计分析、优化算法、信号处理等多种学操作,方便参赛者构建模型和实现算法。 在提供的文件列表中,有几个关键文件: d题论文(1).docx:这可能是参赛队伍对D题的解答报告,详细记录了他们对问题的理解、建模过程、求解方法和结果分析。 D_1.m、ratio.m、importfile.m、Untitled.m、changf.m、pailiezuhe.m、huitu.m:这些是MATLAB源代码文件,每个文件可能对应一个特定的计算步骤或功能。例如: D_1.m 可能是主要的建模代码; ratio.m 可能用于计算某种比例或比率; importfile.m 可能用于导入据; Untitled.m 可能是未命名的脚本,包含临时或测试代码; changf.m 可能涉及函变换; pailiezuhe.m 可能与矩阵的排列组合相关; huitu.m 可能用于绘制回路图或流程图。 matlab111.mat:这是一个MATLAB据文件,存储了变量或矩阵等据,可能用于后续计算或分析。 D-date.mat:这个文件可能包含与D题相关的特定日期据,或是模拟过程中用到的时间序列据。 从这些文件可以推测,参赛队伍可能利用MATLAB完成了据预处理、模型构建、值模拟和结果可视化等一系列工作。然而,具体的建模细节和解决方案需要查看解压后的文件内容才能深入了解。 在学建模过程中,团队需深入理解问题本质,选择合适的学模
以下是关于三种绘制云图或等高线图算法的介绍: 一、距离反比插值算法 该算法的核心思想是基于已知的值,计算未知的值。它认为未知的值与周围已知的值相关,且这种关系与距离呈反比。即距离未知越近的已知,对未知值的影响越大。具体来说,先确定未知周围若干个已知,计算这些已知到未知的距离,然后根据距离的倒对已知的值进行加权求和,最终得到未知的值。这种方法简单直观,适用于分布相对均匀的情况,能较好地反映据在空间上的变化趋势。 二、双线性插值算法 这种算法主要用于处理二维据的插值问题。它首先将所在的区域划分为一个个小的矩形单元。当需要计算某个未知的值时,先找到该所在的矩形单元,然后利用矩形单元四个顶的已知值进行插值计算。具体过程是先在矩形单元的一对对边上分别进行线性插值,得到两个中间值,再对这两个中间值进行线性插值,最终得到未知的值。双线性插值能够较为平滑地过渡据值,特别适合处理图像缩放、地理据等二维场景中的插值问题,能有效避免插值结果出现明显的突变。 三、面距离反比 + 双线性插值算法 这是一种结合了面距离反比和双线性插值两种方法的算法。它既考虑了所在平面区域对未知值的影响,又利用了双线性插值的平滑特性。在计算未知的值时,先根据面距离反比的思想,确定与未知所在平面区域相关的已知集合,这些对该平面区域的值有较大影响。然后在这些已知构成的区域内,采用双线性插值的方法进行进一步的插值计算。这种方法综合了两种算法的优,既能够较好地反映据在空间上的整体分布情况,又能保证插值结果的平滑性,适用于对插值精度和据平滑性要求较高的复杂场景。
内容概要:本文详细介绍并展示了基于Java技术实现的微信小程序外卖餐系统的设计与实现。该系统旨在通过现代信息技术手段,提升外卖餐管理的效率和用户体验。系统涵盖管理员、外卖员、餐厅和用户四个角色,提供了包括菜品管理、订单管理、外卖员管理、用户管理等功能模块。后台采用SSM框架(Spring + Spring MVC + MyBatis)进行开发,前端使用微信小程序,据库采用MySQL,确保系统的稳定性和安全性。系统设计遵循有效性、高可靠性、高安全性、先进性和采用标准技术的原则,以满足不同用户的需求。此外,文章还进行了详细的可行性分析和技术选型,确保系统开发的合理性与可行性。 适用人群:计算机科学与技术专业的学生、从事Java开发的技术人员、对微信小程序开发感兴趣的开发者。 使用场景及目标:①为中小型餐饮企业提供低成本、高效的外卖管理解决方案;②提升外卖餐的用户体验,实现便捷的餐、支付和评价功能;③帮助传统餐饮企业通过字化工具重构消费场景,实现线上线下一体化运营。 其他说明:该系统通过详细的系统分析、设计和实现,确保了系统的稳定性和易用性。系统不仅具备丰富的功能,还注重用户体验和据安全。通过本项目的开发,作者不仅掌握了微信小程序和Java开发技术,还提升了独立解决问题的能力。系统未来仍需进一步优化和完善,特别是在功能模块的细化和用户体验
Retinex理论是计算机视觉和图像处理领域中一种重要的图像增强技术,由生理学家Walter S. McCann和James G. Gilchrist在20世纪70年代提出,旨在模拟人类视觉系统对光照变化的鲁棒性。该理论将图像视为亮度和色度的函,分别对应局部强度和颜色信息。其核心思想是将图像分解为反射分量(物体自身颜色)和光照分量(环境光影响),通过分离并独立调整这两个分量来增强图像对比度和细节。 在Matlab中实现Retinex算法通常包括以下步骤:首先对输入图像进行预处理,如灰度化或色彩空间转换(例如从RGB到Lab或YCbCr),具体取决于图像特性;然后应用Retinex理论,通常涉及对图像进行高斯滤波以平滑图像,并计算局部对比度。可以采用多尺度Retinex(MSR)或单尺度Retinex(SSR)方法,其中MSR使用不同尺度的高斯滤波器估计光照分量,以获得更平滑的结果;接着对分离后的反射分量进行对比度拉伸或其他对比度增强处理,以提升图像视觉效果;最后将调整后的反射分量与原始光照分量重新组合,生成增强后的图像。如果存在“retinex.txt”文件,其中可能包含实现这些步骤的Matlab代码。通过阅读和理解代码,可以学习如何在实际项目中应用Retinex算法,代码通常会涉及定义图像处理函、调用Matlab内置图像处理工具箱函以及设置参以适应不同图像。 在研究和应用Retinex算法时,需要注意以下关键:一是参选择,算法性能依赖于高斯滤波器尺度、对比度拉伸范围等参,需根据具体应用调整;二是运算复杂性,由于涉及多尺度处理,算法计算复杂度较高,在实时或资源受限环境中需优化或寻找高效实现方式;三是噪声处理,Retinex算法可能放大噪声较大的图像中的噪声,因此实际应用中可能需要结合去噪方法,如中值滤波或非局部均值滤波。通过深入理解和应用Retinex算法,不
内容概要:本文详细介绍了Graylog这款开源日志管理平台的核心功能及其优势,涵盖日志收集、实时搜索分析、可视化展示和警报通知等方面。文章首先阐述了日志管理的重要性,接着对比了Graylog与ELK Stack、Splunk等工具的不同之处,突出了其开源免费、实时处理、易于扩展、界面友好和社区活跃等特。随后,逐步讲解了在Linux系统上安装Graylog的过程,包括Java环境、Elasticsearch、MongoDB以及Graylog服务器和Web界面的安装与配置。接着,描述了如何配置Graylog实现高效日志管理,如设置输入源、创建日志收集规则(Stream)和配置告警规则。最后,通过一个电商项目的实战案例展示了Graylog在实际运维中的应用,并总结了常见问题及解决方法。 适合人群:从事IT运维工作的技术人员,尤其是负责日志管理和系统监控的工程师。 使用场景及目标:①帮助运维人员快速收集、筛选和分析海量的日志据,迅速定位系统故障的根源;②通过直观的可视化展示和及时的告警通知,保障系统的稳定运行;③适用于微服务架构下的多服务日志管理,以及需要对日志进行深度分析和告警设置的场景。 阅读建议:Graylog是一款功能强大的日志管理工具,其安装配置和使用涉及多个组件和技术细节。建议读者在学习过程中,结合实际操作进行练习,尤其是在安装部署阶段,注意各组件之间的版本兼容性和资源配置。同时,充分利用Graylog提供的可视化和告警功能,提升日常运维效率。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值