Python爬虫实战 | (5) 爬取人民网新闻指定页面

在本篇博客中,我们将使用requests+正则表达式爬取指定页面的新闻内容,使用正则表达式解析网页,获取新闻的题目、日期、来源、正文内容。

首先,搭建起主体程序,爬虫四部曲:

import json
import requests
from requests.exceptions import RequestException
import re
import time

def get_page(url):
    pass

def get_parser(html):
    pass

def write_tofile(title,article):
    pass

if __name__=='__main__':

    #指定新闻url
    url = 'http://it.people.com.cn/n1/2019/0325/c1009-30993121.html'
    #发送请求,获取响应
    html = get_page(url)
    #解析响应
    title,article = get_parser(html)
    #数据存储
    write_tofile(title,article)
    

发送请求,获取响应。编写get_page()函数:

def get_page(url):
    try:
        # 添加User-Agent,放在headers中,伪装成浏览器
        headers = {
            'Use
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值