网络爬虫作业

本文介绍了一种使用Python的requests和json库抓取在线作业信息的方法,将学生提交的作业详情,包括学号、姓名、作业标题、提交时间和作业链接,从特定网站爬取并保存为CSV文件。
部署运行你感兴趣的模型镜像
第一部分:
 
请分析作业页面,爬取已提交作业信息,并生成已提交作业名单,保存为英文逗号分隔的csv文件。文件名为:hwlist.csv 。
 
文件内容范例如下形式:
 
学号,姓名,作业标题,作业提交时间,作业URL
20194010101,张三,羊车门作业,2018-11-13 23:47:36.8, http://www.cnblogs.com/sninius/p/12345678.html
20194010102,李四,羊车门,2018-11-14 9:38:27.03, http://www.cnblogs.com/sninius/p/87654321.html
 
*注1:如制作定期爬去作业爬虫,请注意爬取频次不易太过密集;
*注2:本部分作业用到部分库如下所示:
(1)requests —— 第3方库
(2)json    —— 内置库
 以下为源代码:
import requests
import json
try:
    fh=requests.get('https://edu.cnblogs.com/Homework/GetAnswers?homeworkId=2420&_=1544191154088')
    fh.raise_for_status()
    fh.encoding='utf-8'
    results=json.loads(fh.text)['data']
except:
    print("网络连接失败")
else:
    if fh.status_code==200:
        gxk=''
        for i in results:
            gxk+=str(i["StudentNo"])+","+i["RealName"]+","+i["DateAdded"].replace("T"," ")+","+i["Title"]+","+i["Url"]+"\n"
        with open ('hwlist.csv','w') as f:
            f.write(gxk)
    else:
        print("404")

 
  

  结果:

 

转载于:https://www.cnblogs.com/gxkun/p/10085825.html

您可能感兴趣的与本文相关的镜像

Python3.9

Python3.9

Conda
Python

Python 是一种高级、解释型、通用的编程语言,以其简洁易读的语法而闻名,适用于广泛的应用,包括Web开发、数据分析、人工智能和自动化脚本

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值