python爬虫

本文介绍了一种使用Python的requests和json库从特定网站抓取已提交作业信息的方法,包括学生学号、姓名、作业标题、提交时间和作业链接,最终将信息整理成CSV格式保存。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

请分析作业页面,爬取已提交作业信息,并生成已提交作业名单,保存为英文逗号分隔的csv文件。文件名为: hwlist.csv 。
 
文件内容范例如下形式:
 
学号,姓名,作业标题,作业提交时间,作业URL
20194010101,张三,羊车门作业,2018-11-13 23:47:36.8, http://www.cnblogs.com/sninius/p/12345678.html
20194010102,李四,羊车门,2018-11-14 9:38:27.03, http://www.cnblogs.com/sninius/p/87654321.html
 
*注1:如制作定期爬去作业爬虫,请注意爬取频次不易太过密集;
*注2:本部分作业用到部分库如下所示:
(1)requests —— 第3方库
(2)json    —— 内置库
   参考了各个大佬的代码后,我终于写完了。。。。。
import requests
import json
url='https://edu.cnblogs.com/Homework/GetAnswers?homeworkId=2420&_=1543986889827'
r=requests.get(url)
if r.status_code==200:
    date=json.loads(r.text)['data']
    people=''
    for i in date:
        people+=str(i.get('StudentNo'))+','+str(i.get('RealName'))+','+str(i.get('Title'))+','+str(i.get('DateAdded').replace('T',' '))+','+str(i.get('Url'))  +'\n'
    with open('hwlist.csv','w') as b :
        b.write(people)
        
else:
    print('wrong')

运行后的结果为

 

 

转载于:https://www.cnblogs.com/a23187/p/10070286.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值