- 博客(22)
- 收藏
- 关注
原创 《游测攻坚日记》-- 黑盒测试1
序来讲讲为什么这么菜还要来写这个东西呢?答:因为之前有次面试被面试官吐槽,虽然你有点经验,但是没有有效的做一些总结或者方法归纳。那好吧,仔细想想,好像很有道理的样子,那么这个系列就顺势而生了。这个系列日记主要是从黑盒测试,专项测试,自动化测试,接口测试等等。写一些工作当中的坑和心得,顺便记录一下自己的工作总结。也希望各位大佬在点开本菜鸡的博客中可以从中获取到一些信息助力到日常的工作当中,也想帮助一些迷茫的外包小伙伴或者刚毕业想要做游测的同学们走向正途。那么就正式开始吧第一章节 黑盒.
2021-02-08 21:09:14
253
2
原创 iOS界面交互设计规范
整理用来自用。概述( overview) 主题(Themes)主题章节,主要对设计规范整体进行一个介绍,引出清晰,遵从和深度三大设计原则以及美学完整性,一致性,直接操作性,反馈性,隐喻性和用户控制性六大基本特性。 基本界面元素,通过栏(bars),视图(views)和控件(control)组成了三大基本元素 栏(bars)当前所在应用中的具体位置,提供导航,还有可能包含按钮或...
2018-09-18 17:29:17
2990
原创 利用scrapy框架爬取图虫风景图
tuchong.py代码# -*- coding: utf-8 -*-import scrapyimport jsonimport refrom ..items import TuchongItemclass TuchongSpider(scrapy.Spider): name = 'tuchong' allowed_domains = ['tuchong.com...
2018-08-27 10:18:32
475
原创 利用scrapy框架爬取糗事百科
qsbk.py 代码# -*- coding: utf-8 -*-import scrapyfrom ..items import QsbkItemclass QsbkSpider(scrapy.Spider): name = 'qsbk' allowed_domains = ['qiushibaike.com'] start_urls = ['https:...
2018-08-27 10:15:18
434
原创 利用scrapy爬取58同城租房信息
tc.py 代码# -*- coding: utf-8 -*-import scrapyfrom ..items import TcItemclass Tc58Spider(scrapy.Spider): name = 'tc' allowed_domains = ['bj.58.com'] start_urls = ['http://bj.58.com/ch...
2018-08-27 10:12:38
2598
原创 利用scrapy框架爬取网易新闻排行榜
wyxw.py中代码# -*- coding: utf-8 -*-import scrapyfrom ..items import WyxwItemclass WyxwSpider(scrapy.Spider): name = 'wyxw' allowed_domains = ['news.163.com'] start_urls = ['http://new...
2018-08-27 10:10:03
854
原创 利用scrapy框架爬取淘宝
taobao.py主爬取程序# -*- coding: utf-8 -*-import scrapyimport jsonimport refrom ..items import TaobaoItemclass TaobaoSpider(scrapy.Spider): name = 'taobao' allowed_domains = ['taobao.com']...
2018-08-27 10:05:11
2325
2
原创 scrapy框架基本设置
个人记录帖,方便于后面的代码运行,首先是scrapy中的setting.py# -*- coding: utf-8 -*-# Scrapy settings for mjx_project project## For simplicity, this file contains only settings considered important or# commonly us...
2018-08-27 09:59:41
578
原创 进程和线程的区别
线程:1、线程是操作系统中能够进行运算调度的最小单位,它被包含在进程当中,是进程的实际运作单位。2、一个线程是指进程中一个单一顺序的控制流,所有的线程在同一个进程中运行,共享相同的资源和空间,易于调度。线程一般是并发执行3、每条线程可以执行不同的任务进程:1、进程是程序的一次执行,每个进程都有自己的地址空间、内存、数据栈及其他辅助记录运行轨迹的数据。 线程和进程的区别:...
2018-08-22 21:02:52
228
原创 喜马拉雅音频爬取(仅供参考学习)
import requestsfrom lxml import etreefrom urllib import requestimport osheaders = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029...
2018-08-22 19:08:35
5307
3
原创 selenium模拟浏览器登陆豆瓣(带验证码)
from selenium import webdriverimport timeimport requestsfrom lxml import etreeimport base64# 操作浏览器driver = webdriver.Chrome()url = 'https://accounts.douban.com/login?alias=&redir=https%3A...
2018-08-22 19:06:30
547
原创 雪球股票信息爬取存入json文件
from urllib import requestimport jsonbase_url = 'https://xueqiu.com/stock/quote_order.json?page={}&size=30&order=desc&exchange=CN&stockType=sha&column=symbol%2Cname%2Ccurrent%2...
2018-08-22 19:02:03
1915
原创 爬取boss直聘招聘信息
直接上主代码from bs4 import BeautifulSoupimport requestsimport ip_proxyfrom urllib import parseheaders = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like...
2018-08-22 18:57:27
1403
原创 python实现电影天堂种子磁力的爬取
import requests,redef getdetail(url): response = requests.get(url) #dytt的编码为gbk非utf-8 html = response.content.decode('gbk') # 电影详情页标题 movie_title_name = re.search('<h...
2018-08-19 15:57:13
22506
原创 让你营养跟不上的图片爬取
import requestsfrom lxml import etreeimport osdef headers(referer):#图片的下载可能和头部的referer有关,所以将referer设为变换值,以躲避反扒 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebK...
2018-08-19 15:50:48
724
原创 python实现腾讯招聘爬取
import requestsfrom lxml import etreefrom day5 import helperdef tx_zhaoping(num): headers = { 'User-Agent' : 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_4) AppleWebKit/537.36 (KHTML,...
2018-08-19 15:48:14
1065
原创 python爬虫实现今日头条街拍爬取
import requestsimport reimport jsonimport osfrom urllib import requestheaders = { 'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/6...
2018-08-16 21:10:25
1001
原创 有大神告诉我为什么pymysql导入失败
import jsonimport requestsimport pymysqlurl = 'https://xueqiu.com/v4/statuses/public_timeline_by_category.json?since_id=-1&max_id=-1&count=10&category=111'headers = {'Cookie': 'ali...
2018-08-15 22:11:54
2160
原创 python爬虫实现有道翻译
import timeimport randomimport jsonfrom day1.all_urllib import postdef md5_my(need_str): import hashlib # 创建md5对象 md5_o = hashlib.md5() # 需要有bytes, 作为参数 # 由str, 转换成 bytes enc...
2018-08-14 21:32:59
283
原创 基本的爬虫封装
from urllib import request, parsefrom urllib.error import HTTPError, URLError # 保存cookiefrom http import cookiejarclass session(object): def __init__(self): cookie_object = cookiej...
2018-08-14 20:39:48
633
原创 爬虫基本的get获取和post百度翻译
from urllib import request,parse from urllib.error import HTTPError,URLError import json import re #get 方法请求函数def get(url,hearders=None): return urlrequests(url,headers=hea...
2018-08-13 20:56:45
568
原创 session和cookie的作用与区别
cookie和session的作用和区别cookie的作用 Cookie是客户端技术,程序把每个用户的数据以cookie的形式写给用户各自的浏览器。当用户使用浏览器再去访问服务器中的web资源时,就会带着各自的数据去。这样,web资源处理的就是用户各自的数据了。 session的作用 Session是服务器端技术,利用这个技术,服务器在运行时可以为每一个用户的浏览器创...
2018-08-13 17:00:31
5116
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人