
python3
文章平均质量分 60
SayLove丶
学求于心,惰则生愚
展开
-
我写的第一个图片爬虫
第一次写博客,主要是记录自己学习的过程原创 2017-08-24 09:25:18 · 368 阅读 · 1 评论 -
从开始学习到遇到问题及解决方法的记录
http://www.runoob.com/python3/python3-tutorial.html python3基础教程http://cuiqingcai.com/1319.html BeautifulSoup使用教程(爬虫...原创 2017-09-14 14:16:25 · 674 阅读 · 2 评论 -
学习笔记(一) 根据发帖时间,删除相关帖子
import urllib.requestimport urllib.parseclass Http: def get(self, url): html = urllib.request.urlopen(url).read().decode('utf-8') return html def post(self, url, data, c原创 2018-01-29 13:49:35 · 215 阅读 · 0 评论 -
oppo社区,学习笔记(三)
from New_MyPython.Community_MyThread.Requse import HttpReqclass Topic: def __init__(self): self.request = HttpReq.Http() ''' 目的:获取某个已存在话题下的所有tid 返原创 2018-02-01 18:13:56 · 470 阅读 · 0 评论 -
xlsxwriter创建Excel表格,并插入数据(二)
批量写入数据import urllib.requestimport reimport sslimport threadingimport time as tfrom New_MyPython.Xlsx import CreateExcelssl._create_default_https_context = ssl._create_unverified_context原创 2018-01-31 11:05:01 · 1078 阅读 · 0 评论 -
oppo社区,学习笔记(一)
import urllib.requestimport urllib.parseimport reimport sslssl._create_default_https_context = ssl._create_unverified_contextclass Http: def get(self, url): html = urllib.request.ur原创 2018-02-01 18:18:12 · 387 阅读 · 0 评论 -
oppo社区,学习笔记(二)
from New_MyPython.Community_MyThread.Requse import HttpReqimport urllib.parseclass GetAllTid: ''' 获取单个用户的所有tid ''' def __init__(self, user): self.HttpRequest = HttpReq原创 2018-02-01 18:16:43 · 478 阅读 · 0 评论 -
xlsxwriter创建Excel表格,并插入数据(一)
创建文件名:CreateExcel插入列数据必须是str,多个为list[list] [[]]插入行数据格式必须是单个str,多个为list[list] [[]] # -*- coding=utf8 -*-import xlsxwriterimport timeimport osclass Create: ''' Create Excel...原创 2018-01-31 10:59:12 · 3496 阅读 · 0 评论 -
python生成pb.py的方式
http://blog.youkuaiyun.com/swiftshow/article/details/8632755pb2.py文件的生成方式protoc-2.6.1-win32.zip下载地址:(注:使用版本与服务端人员使用大版本一致即可)https://github-production-release-asset-2e65be.s3.amazonaws.com/23357588/1464原创 2017-12-13 14:39:12 · 3129 阅读 · 0 评论 -
使用selenium+PhantomJS 解决Ajax登录页面重定向问题
本文原创,仅限个人学习使用,如有侵权,请联系作者删除!原创 2017-11-22 23:23:20 · 2179 阅读 · 0 评论 -
百度任意类型图片爬虫
import urllib.request,os,re,urllib.parseimport sslfrom easygui import *ssl._create_default_https_context = ssl._create_unverified_contextdef url_open(url):#打开url req=urllib.request.Request(url原创 2017-11-28 15:48:50 · 351 阅读 · 0 评论 -
IP及端口号的获取及保存【实用】
本内容仅供个人学习使用,切勿商业使用。如有侵权,请联系作者原创 2017-11-03 10:45:38 · 631 阅读 · 0 评论 -
python3中的urlopen对于中文url是如何处理的?
文章于知呼转载,非商业,仅限个人学习所有转载 2017-10-20 15:17:01 · 758 阅读 · 0 评论 -
记录初学urllib库
import urllib.requestimport urllib.parseimport sslssl._create_default_https_context = ssl._create_unverified_contextdef pl(sun): url='#####################' data={'content':sun,'tid':'3005原创 2017-09-20 17:04:05 · 285 阅读 · 0 评论 -
python http.Cookie_jar
学习笔记原创 2017-09-25 13:46:13 · 455 阅读 · 0 评论 -
学习笔记(二) 根据发帖时间,删除相关帖子
import refrom New_MyPython.Community_MyThread.Requse.HttpReq import Httpimport timeimport threading''' 思路 一、将帖子tid取出 二、根据tid,获取当前帖子时间 三、将时间转换为时间戳,用来做时间隔断 四、将通过时间戳分割出来的帖子删除,并返回tid时原创 2018-01-29 13:52:04 · 302 阅读 · 0 评论