03 python38的scrapy处理json格式数据

1 json文档爬取或者获取ajax请求的json格式数据

1.0 网站分析

#网址:http://www.cwl.gov.cn/ygkj/wqkjgg/ssq/
#列表页分析:
第一页:http://www.cwl.gov.cn/cwl_admin/front/cwlkj/search/kjxx/findDrawNotice?name=ssq&issueCount=&issueStart=&issueEnd=&dayStart=&dayEnd=&pageNo=1&pageSize=30&week=&systemType=PC
第二页:http://www.cwl.gov.cn/cwl_admin/front/cwlkj/search/kjxx/findDrawNotice?name=ssq&issueCount=&issueStart=&issueEnd=&dayStart=&dayEnd=&pageNo=2&pageSize=30&week=&systemType=PC
最后一页:http://www.cwl.gov.cn/cwl_admin/front/cwlkj/search/kjxx/findDrawNotice?name=ssq&issueCount=&issueStart=&issueEnd=&dayStart=&dayEnd=&pageNo=542&pageSize=30&week=&systemType=PC

请求方式get
参数修改pageNo
返回数据为json

1.1 创建项目

scrapy startproject doubanSpider 
cd ssqSpider
scrapy genspider douban douban.com

1.2 创建爬虫

scrapy genspider douban "douban.com"

1.3 添加爬虫模型

import scrapy

class DoubanMovieItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    title = scrapy.Field() #标题   
    stars = scrapy.Field() #分数   
    subject = scrapy.Field() #主题   
    pass

1.4 修改爬虫代码,列表页的多页数据为例子

1.5.1 数据为json文档时使用response.json()

import scrapy
from scrapy.http import HtmlResponse
from scrapy import Request
from ssqSpider.items import SsqspiderItem


class SsqSpider(scrapy.Spider):
    name = "ssq"
    allowed_domains = ["www.cwl.gov.cn"]
    start_urls = ["https://cwl.gov.cn"]
    # start_urls = ["http://www.cwl.gov.cn/cwl_admin/front/cwlkj/search/kjxx/findDrawNotice?name=ssq&issueCount=&issueStart=&issueEnd=&dayStart=&dayEnd=&pageNo=1&pageSize=30&week=&systemType=PC"]

    def start_requests(self):
        for page in range(1,55):   ## 1-54页,range为左闭右开
            url=f'http://www.cwl.gov.cn/cwl_admin/front/cwlkj/search/kjxx/findDrawNotice?name=ssq&issueCount=&issueStart=&issueEnd=&dayStart=&dayEnd=&pageNo={page}&pageSize=30&week=&systemType=PC'        
            yield Request(url=url,dont_filter=True)  # 如果有302跳转加入dont_filter=True

    def parse(self, response:HtmlResponse):       
        # print(response.json())       
        data=response.json()
        result=data['result']
        for i in result:
            item=SsqspiderItem()
            # print(i)
            item['qihao']=i['code']
            item['riqi']=i['date']
            item['kaijianghaoma_red']=i['red']
            item['kaijianghaoma_blue']=i['blue']
            
            item['jiangchijiner']=i['poolmoney']
            item['xiaoshouer']=i['sales']

            yield item


1.5.2 测试运行爬虫

scrapy crawl douban  #正式运行
或者
scrapy crawl douban -o douban.csv 
### 使用Scrapy发送POST JSON数据PythonScrapy框架中,可以通过自定义`FormRequest`类来实现向服务器发送带有JSON负载的POST请求。下面展示了一个具体的例子,说明怎样构建这样的请求并处理返回的数据。 ```python import json import scrapy class PostJsonSpider(scrapy.Spider): name = 'post_json_spider' start_urls = ['http://api.example.com/endpoint'] def parse(self, response): payload = {"key": "value"} # 定义要发送给API端点的有效载荷 yield scrapy.Request( url='http://api.example.com/endpoint', method='POST', # 设置HTTP方法为POST headers={'Content-Type': 'application/json'}, # 添加必要的头部信息以表明这是JSON格式的内容 body=json.dumps(payload), # 将字典转换成字符串形式以便作为body部分传输 callback=self.parse_response # 指定回调函数用于解析响应结果 ) def parse_response(self, response): if response.status == 200: result = json.loads(response.text) # 如果状态码正常,则尝试加载JSON格式的结果 for item in result.get('items', []): # 假设返回的是包含多个项目的列表 yield { 'id': item['id'], 'name': item['name'] } ``` 此代码片段展示了如何创建一个名为`PostJsonSpider`的新爬虫,在其中定义了想要提交到目标URL (`start_urls`) 的初始地址以及实际执行POST操作的目标路径(`scrapy.Request`). 同时也指定了当接收到成功的HTTP回复(即status code等于200)之后应该如何进一步处理这些数据. 值得注意的是,这里使用了`json.dumps()` 方法将Python中的字典对象序列化为适合网络传输的JSON字符串,并将其赋值给了`body`参数;而为了确保接收方能够正确识别所传入的内容类型,还需要适当调整请求头中的`'Content-Type'`. 此外,对于更复杂的场景——比如需要携带认证令牌或者其他额外的信息——可以在发起请求之前修改相应的header字段或利用其他方式传递所需参数[^1].
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值