python爬虫爬取补天公益SRC厂商

本文介绍了一种使用Python爬虫从补天漏洞响应平台抓取公益SRC厂商域名的方法。首先通过游客身份获取厂商ID,然后利用登录后的Cookies遍历ID,结合特定URL获取详细信息。爬虫关键请求包括对'http://butian.360.cn/Reward/pub'和'http://butian.360.cn/Reward/pub//Message/send'的POST操作。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

00X0 前言

补天漏洞响应平台在七月份开始了新的活动,指定范围为公益SRC。无HACK 不兄弟
现在都八月份了,七月不刷洞八月方便面啊。趁着月初,赶紧把公益SRC的域名全部爬下来

01X0 准备活动

01X1 踩点分析

  • 公益厂商列表中可初步获取厂商的信息,此处发现显示的ID与点击提交漏洞后页面的ID一致。
    这里写图片描述
    此处的ID为59906,将鼠标再次悬浮在提交漏洞的链接上
    这里写图片描述
    两处的ID均相同。点击提交漏洞
    这里写图片描述
    从这里我们可以发现点击提交漏洞需要登录才能获取具体的信息(域名地址)

且经过一些信息收集后,发现厂商页面是由js在线生成的,所以不能直接爬取链接。

01X2 整体思路

先用游客身份爬取公益厂商列表中所有厂商的ID,然后登录补天账户获取对应的Cookies,进而遍历上一步获取的ID值再组合http://butian.360.cn/Loo/submit?cid=id链接获取每个厂商的域名信息
这里写图片描述

02x0 爬虫编写

02x1 准备环境

Python3.6
模块: requests
      BeautifulSoup
      json

02X2 关键请求

第一处为未登录厂商的一处请求,返回json数据可以遍历所有页数和厂商ID

这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值