python爬取erp每日业绩

前情提示:

因工作需要,每日需要从公司ERP系统中读取各个分校的每日业绩以及往期业绩,制作业绩排名情况表(包含的指标包括各个分校的每日业绩,本月业绩,往期业绩等)。
这里涉及的几个困难点是:
1,我所在项目组包含考研、考研MPAcc、管理类硕士事业部三大项目,需要各自单独查看分校各部分业绩然后求和。
2,部分分校的实际架构与ERP不完全符合,需要进一步处理。具体情况是辽宁分校实际分为辽宁大连及其他地市两部分,每次需要统计辽宁分校的业绩以及其下属架构大连的业绩,再二者相减得到其他地市业绩。
3,每次需要各个分校的往期业绩,工作量翻倍
如下图所示,图1为初始各公职项目的业绩情况,点击各公职项目名称进入图2,显示该项目所有分校的业绩情况;点击图2中的各分校进入图3,显示该分校各地市的业绩情况。
接受该工作时,每日需要到各个界面复制粘贴分校的业绩,因为有不同时间、不同分校、不同项目多个维度,浪费大量时间,因此我利用爬虫对其进行自动化处理,大幅缩小了工作耗时。具体python爬虫代码见下方。
表1在这里插入图片描述
图1 各项目情况表
在这里插入图片描述
图2 各分校业绩情况
图3各地市业绩情况图3各地市业绩情况

处理步骤

1,通过fiddler软件获取登录的session信息,用requests登录
2,查看网页url信息,其实际情况如下所示,在设置好地区id(area_id),项目id(job_id)以及初始时间(start_time)结束时间(end_time)后,变可获取其url。
实例如下http://nb2.offcn.com:88/index.php/ProjTypeStat/JobArea/area_id/893/job_id/33/start_time/2019-01-01/end_time/2019-11-01 其中的area_id 893,job_id 33,start_time/2019-01-01及end_time/2019-11-0

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值