scrapy.Request()post方式发送json数据

再scrapy 中 可以使用formdata 发送post请求   但是也仅限于formdata 方式的数据

但是如果post请求 要求传递json  单纯使用下列方式 是提取不出来出数据的

    def start_requests(self):

        for i in range(1000):
            data={
                "pageNum": i,
                "pageSize": 10,
                "tradeType": "01",
            }

            yield scrapy.Request(
                method="POST",
                url ="http://www.xxx.com",
                body=json.dumps(data),
                callback=self.parse,
            )

需要加个headers

      headers={
                    "Content-Type": "application/json"
                }

注意: headers 加多了 依然会不成功 所以大家 尽量不要写太多请求头

源码如下

 def start_requests(self):

        for i in range(1000):
            data={
                "afficheSourceType": "",
                "afficheTitle": "",
                "pageNum": i,
                "pageSize": 10,
                "pubTime": "",
                "regionCode": "",
                "tradeClassify": "",
                "tradeType": "01",
            }

            yield scrapy.Request(
                url ="http://www.ahtba.org.cn/site/trade/affiche/pageList",
                body=json.dumps(data),
                callback=self.parse,
                headers={
                    "Content-Type": "application/json"
                }
            )

### 使用Scrapy框架发送POST请求 为了通过Scrapy框架执行HTTP POST请求,可以利用`scrapy.FormRequest`类来构建并提交表单数据。下面是一个具体的实例展示如何向目标网页发起带有参数的POST请求: ```python import scrapy class PostExampleSpider(scrapy.Spider): name = 'post_example' start_urls = ['http://example.com/login'] def parse(self, response): # 构建FormRequest对象用于发送POST请求 yield scrapy.FormRequest.from_response( response, formdata={'username': 'admin', 'password': 'secret'}, callback=self.after_login ) def after_login(self, response): # 登录成功后的处理逻辑 pass ``` 上述代码片段展示了创建一个名为`PostExampleSpider`的爬虫,在解析初始页面(`start_urls`)返回的内容之后,会调用`parse()`方法。此方法内部使用`from_response()`静态工厂函数生成了一个新的`FormRequest`实例,并指定了要传递给服务器的数据字典以及回调函数。 如果需要手动指定URL而不是基于当前响应,则可以直接初始化`FormRequest`而不需要依赖于`from_response()`. 这种情况下应提供完整的URL和其他必要的参数: ```python yield scrapy.FormRequest( url='http://example.com/post_endpoint', method="POST", headers={}, body=scrapy.json.dumps({'key':'value'}), callback=callback_function ) ``` 这里需要注意的是当直接设置body时需确保其格式正确并与Content-Type头部相匹配;对于JSON类型的负载通常还需要适当调整headers中的内容类型声明[^3].
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值