python 爬虫 爬取csdn

本文详细介绍了使用Python进行网络爬虫的实际操作,通过解析优快云博客文章页面,获取并分析文章的阅读数量。利用urllib2和BeautifulSoup库,实现了对特定网页的数据抓取和解析,展示了如何定位并读取网页中特定元素的文本信息。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

import urllib2.request
import re.request
from bs4 import BeautifulSoup

def getHtml(url,headers):
    req = urllib2.Request(url,headers=headers)
    page = urllib2.urlopen(req)
    html = page.read()
    return html

def parse(data):
    content = BeautifulSoup(data,'lxml')
    return content

def getReadNums(data,st):
    reg = re.compile(st)
    return re.findall(reg,data)

url = 'http://blog.youkuaiyun.com/marksinoberg/article/details/51493318'
headers = {
    'referer':'http://blog.youkuaiyun.com/',
    'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.94 Safari/537.36'
}
i = 0
while i<24:
    html = getHtml(url,headers)
    content = parse(html)
    result = content.find_all('span',class_='link_view')
 #  print (result[0].get_text())
    i = i +1
 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值