
Python
jiang_16
一个想学好编程的弱渣妹纸,猎奇,脑洞向...
展开
-
模拟SDUT OJ登陆
#!/usr/bin/env python #-*-coding:utf-8-*- import sys import urllib, urllib2 import cookielib import getpass from bs4 import BeautifulSoup home_url = 'http://acm.sdut.edu.cn/onlinejudge2/index.php/H原创 2017-07-27 11:02:55 · 718 阅读 · 0 评论 -
爬虫?模拟SDUT OJ 的Standings,按输入的用户名查看排名
这真的是我第一次写爬虫啊啊啊,之前学Python的时候知道有爬虫,但是没想过去写,昨晚学长问我Python学得咋样了,我说基本的都还好,,结果学长直接来了句,那你给我写个爬虫吧..我哪写过啊QAQ,而且貌似很复杂很难写的样子(>_ 另外那个BeautifulSoup,是需要安装的,Python本身没有 #!/usr/bin/env python #-*-coding:utf-8-*- imp原创 2017-07-25 21:31:08 · 503 阅读 · 0 评论 -
将爬取的数据存储为json文件
以盗墓笔记小说阅读网为例吧,获取章节的信息和链接,毕竟我高中时也是一颗稻米,看过第一本和第八本书,电视剧电影也都看过,很喜欢张起灵和吴邪 一开始我并不知道这个网站↓ 这次我没用Python的urllib2库,学了requests库,就用了get函数,不过这个确实比之前的urllib/urllib2/cookielib库简洁方便。 我本以为这个网站get的时候顶多加个headers就行了,原创 2017-09-05 21:57:26 · 11984 阅读 · 6 评论 -
Python xlrd xlwt读写Excel
需求:给你一个学生名单(Excel表格),统计在一个比赛(开放)中,名单上所有学生的AC情况,要求语言是java 名单上有三列:学号,姓名,分组 最后统计的时候我在新表格中加了三列:OJ昵称,AC数量,用JAVA AC的数量 其实这个任务一开始对我来说真有点困难,主要是用Python操作Excel,这个我之前没接触过,而且和网页爬虫结合在一起,即把爬虫爬下来的数据整理后写入新的Excel表格,原创 2017-09-14 16:09:30 · 504 阅读 · 0 评论 -
获取个人AC的题目代码
一直都想写这么个东西,用户登录后,输入题号,找到代码链接,打印,就这么轻松,这里只能找problem里的代码,contest里的代码就自己去找吧(= =),这里就是模仿的那个提交页面的绿色搜索pid 一开始我是直接在Submissions里挨个搜索所找的题目和代码,感觉贼慢,特别是你如果提交的题目很多的话,后来观察了下网址,想到直接跳到那道题你提交的页面,然后搜索AC代码,这样就快多了。特别的,原创 2017-08-13 09:31:54 · 380 阅读 · 0 评论