自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(166)
  • 收藏
  • 关注

原创 正交法工具Allpairs使用教程

4. 在目录下 allpairs\release 新建txt文件,并将excel的内容复制过来(无需修改格式)6. 带有~的可以替换成条件下的任何一个因素,pairings列可以删除。5. 使用cmd执行命令,图中222.txt就是生成的文件。3. 在excel中输入。

2024-10-29 16:27:16 684

原创 Jmeter在信息头中设置Bearer与 token 的拼接值

第一步:使用提取器将token值提取出来,使用setProperty函数将提取的token值设置成全局变量,在登录请求后面添加。Debug Sampler:报错时可以查看变量的值是否正确,位置:线程组下一级。思路:先获取token,将token设置成全局变量,再与Bearer拼接。第二步:使用property函数拿取token值,再与Bearer拼接。直接在请求头写:【 Bearer token变量 】就好了。

2024-07-09 22:42:44 847

原创 虚拟机 VMware下载及安装

测试是否可以上网,使用浏览器输入内容,看是否成功。一直点下一步就好了,有些配置按需修改即可。处理内核总数不能大于自己主机的逻辑处理器。安装操作系统:引入centos镜像。进入后接受许可证,然后点击完成配置。选择一系列后进入linux。安装完成后点击 重启。

2024-03-17 22:08:49 400

原创 Jmeter---分布式

多台机协作,以集群的方式完成测试任务,可以提高测试效率。:控制机(分发任务)与多台执行机(执行任务)

2024-03-16 15:37:31 471

原创 Jemter---高频率、高并发

模拟一个用户以30次/s的频率访问系统服务器,持续20s,统计服务器平均响应时间。高频率:一般指的是请求发生的频率高,即在单位时间内系统接收到的请求次数非常多。高并发:通常指的是系统能够同时处理大量用户请求的能力。:模拟100个线程同时请求。:添加常量吞吐量定时器。

2024-03-16 15:14:08 306

原创 Jmeter---跨越线程组传值

2. 设置全局变量:使用函数助手的 setProperty 函数,填写相应内容。3. 设置全局变量:创建一个beanShell,把函数生成的内容粘贴过来。4. 获取全局变量:使用函数助手的 property 函数,填写相应内容。1. 创建两个线程组,并添加请求,设置变量并将其设置为全局变量。5. 把值粘贴到需要使用的地方就可以啦。

2024-03-13 23:47:37 590

原创 Jmeter---逻辑控制器

2.再添加一个if控制器,并填写判断内容 【语法:""==""】1. 先添加一个 用户自定义的变量,并填写变量名和值。2. 再添加一个forEach控制器。1. 添加循环控制器,填写循环次数。注意:请求要放在控制器子集下面。1. 先添加一个用户自定义变量。

2024-03-13 22:33:29 374

原创 Jmeter直连数据库

3. 填写 JDBC Connection Configuration。4. 填写JDBC Request。2. 选择刚刚下载的jar包。5. 使用查看结果树查看结果。

2024-03-09 19:37:36 1424

原创 Jmeter---非GUI命令行的执行生成报告、使用ant插件执行接口测试脚本生成报告

若报错,需要将全局配制文件 jmeter.properties 中的jmeter.save.saveservice.output_format=csv注释打开。4. 配置 jmeter全局配置文件 jmeter.properties。(-n : 非GUI的方式 -t: 指定需要执行的脚本)3. 编辑 执行和构建的报告的文件:build.xml。1. 在jmx后缀的文件目录下打开命令行。2. 配置系统path环境变量。

2024-03-09 15:52:46 666

原创 Jmeter接口测试---随机数、加密、cookie鉴权、断言、CSV参数化

Jmeter只有Base64、MD5、SHA加密,但是Jmeter提供了 BeanShell 组件:Java语言或者自带的BeanShell语法。类型:AES、DES、Base64、RSA(可以解密) | MD5、SHA、HmacSHA(不能解密)Http Cookie管理器自动实现Cookie关联的原理:(默认:作用域在同级别组件)第二步:选择random,设置最大值最小值,复制函数字符串到指定位置。4)添加循环控制器,填写循环次数(多少个用例就写几)2)添加csv数据文件设置,并填写。

2024-03-03 21:14:53 666

原创 Jmeter基础使用---Token鉴权接口关联

第一步:将登录的token值使用正则表示,选择RegExp Tester,可以点击 test进行测试查看正则表达式是否正确(鉴权接口)第一步:将登录的token值使用jsonpath语法表示,选择JSON Path Tester,点击 test 查看。eg:$.data 、 $.* (根目录下所有子节点)、$.data.list.godds[1]第三步:在需要关联的请求 添加 HTTP信息头管理器,添加token,使用${}3)$1$表示取第一个正则,$2$表示取第二个正则。1)变量名,可以随意定义。

2024-03-03 15:23:33 947

原创 Jmeter 安装

JMeter是Java的框架,因此在安装Jmeter前需要先安装JDK,此处安装以Windows版为例。中添加 C:\Program Files\Java\jdk1.7.0_25\bin。设置为 C:\Program Files\Java\jdk1.7.0_25。,双击jmeter.bat即可运行,3.Jmeter 安装成功。安装完成后设置环境变量。

2024-02-28 14:09:44 387

原创 Python爬虫---scrapy的post请求

【代码】Python爬虫---scrapy的post请求。

2024-01-29 22:58:56 467 1

原创 Python爬虫---Scrapy框架---CrawlSpider

2. CrawlSpider可以定义规则,再解析html内容的时候,可以根据链接规则提取出指定的链接,然后再向这些链接发送请求,所以,如果有需要跟进链接的需求,意思就是爬取了网页之后,需要提取链接再次爬取,使用Crawlspider是非常合适的。6. restrict_xpaths = () :xpath语法,提取符合xpath规则的链接。DB_CHARSET = "utf8" # 字符集,不允许写 -DB_NAME = "rbook" # 数据库名字。

2024-01-28 00:00:35 2078

原创 Python爬虫---scrapy框架---下载嵌套数据

/spider/movie.py文件。pipelines.py文件。items.py文件。

2024-01-16 23:16:15 539

原创 Python爬虫---scrapy框架---当当网管道封装

pipelines.py文件:管道文件,里面只有一个类,用于处理下载数据的,值越小优先级越高。dang.py文件:自己创建,实现爬虫核心功能的文件。settings文件:配置文件,例如开启管道。items文件:定义数据结构的地方。

2024-01-16 21:23:00 636

原创 Python爬虫---scrapy shell 调试

是Scrapy提供的一个交互式shell工具,它可以帮助我们进行爬虫的开发和调试。可以使用它来测试xpath或css表达式,查看它们是如何工作的,以及它们从你试图抓取的网页中提取的数据。它允许你在编写spider时交互地测试表达式,而无需运行spider来测试每个更改。2. 直接输入scrapy shell 域名 (注意:不能先进入ipython或python)URL的基本组成部分:协议、域名、端口、路径。1. win+r 打开终端。

2024-01-13 18:49:55 675

原创 Python爬虫---Scrapy架构组成

Scrapy是一个Python编写的开源网络爬虫框架,它由五大核心组件构成:引擎(Engine)、调度器(Scheduler)、下载器(Downloader)、爬虫(Spider)和实体管道(Item Pipeline)。调度器 (Scheduler):它是一个URL(抓取网页的网址或者说是链接)的优先队列,由它来决定下一个要抓取的网址是什么,同时去除重复的网址,以避免做无用功。引擎(Engine):它是Scrapy的核心,负责控制整个爬虫流程的运行,包括调度器、下载器和管道等组件的协调工作。

2024-01-13 18:19:21 1395

原创 Python爬虫---Scrapy项目的创建及运行

Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。

2024-01-11 00:03:38 1834

原创 Python爬虫---Requests---cookie登录

【代码】Python爬虫---Requests---cookie登录。

2024-01-09 21:12:48 467

原创 Python爬虫--Rquestes

注意:需要安装在python解释器相同的位置,例如:D:\Program Files\Python3.11.4\Scripts。下集在见.........

2024-01-04 23:29:05 941

原创 Python爬虫---selenium基本使用(支持无界面浏览器PhantomJS和Chrome handless)

使用urllib.request.urlopen()模拟浏览器有时候获取不到数据,所以使用selenium(1) selenium是一个用于web应用程序测试的工具(2) selenium 测试直接运行在浏览器中,就像真正的用户在操作一样(3) 支持通过各种driver (FirfoxDriver,IternetExplorerDriver,OperaDriver, ChromeDriver) 驱动真实浏览器完成测试。(4) selenium也是支持无界面浏览器操作的。

2024-01-01 23:34:37 2810

原创 Python爬虫---使用BeautifulSoup下载麦当劳点餐图片

6. 将获取的xpath语法转换成bs4语法。2. 定位正确的url地址。1. 导入需要使用的包。5. 解析响应的内容。

2024-01-01 21:16:18 783

原创 Python爬虫---解析---BeautifulSoup

pip install bs4 或pip install bs4 -i https://pypi.douban.com/simple(使用国内镜像下载)注意:需要安装在python解释器相同的位置,例如:D:\Program Files\Python3.11.4\Scripts。4.1. bs4的一些函数: 1) find 2) findall 3) select。,且返回所有符合条件的标签,如果获取多个标签的数据,需要放在列表中。1) find:获取第一个符合条件的数据。

2023-12-25 23:40:23 883

原创 Python爬虫---解析---JSONPath

注意:需要安装在python解释器相同的位置,例如:D:\Program Files\Python3.11.4\Scripts。Xpath可以解析本地文件和服务器响应的文件,JSONPath只能解析本地文件。1. 安装jsonpath:pip install jsonpath。2.1 导入:import jsonpath。示例2:获取淘票票城市名称。

2023-12-24 20:49:48 1200

原创 python爬虫---结合urllib.request与xpath下载网页图片

【代码】python爬虫---结合urllib.request与xpath下载网页图片。

2023-12-21 00:10:02 488

原创 Python爬虫---解析---xpath

6.逻辑运算 1)//div[@id="idname”and @class="classname"] 与 2)//title| //price 或。4.模糊查询: 1)//div[contains(@id,"he")] 2)//div[starts-with(@id,"he")] I。2.谓词查询: 1)//div[@id] 2)//div[@id="idname"]5.内容查询: 1)//div/h1/text()3.属性查询: 1)//@class。

2023-12-20 22:35:26 723

原创 python爬虫---urllib

是Python的一个内置库,专门用于处理网络请求。主要包含了四个模块:request、error、parse和robotparser。1. 参数:get请求可以拼接,且参数不需要编码;post请求不能拼接,且参数需要编码encode方法。2.请求对象定制:get请求参数拼接在url里了;post参数请求参数需要单独放在请求对象定制Request方法里。

2023-12-18 17:37:53 933

原创 Linux常用命令

eg: 1)grep -n h* test.txt (带有h的) 2)grep -n ^h test.txt(以h开头) 3)grep -n h$ test.txt(以h结尾) 4)grep h. test(h后有一位)eg:1)find /home -name 1.txt(home目录下查找文件名为1.txt的文件) 2)find /home -name *.txt。-i:忽略大小写 -n:在哪行 -in:-i和-n的结合 -v:搜索内容之外的 -ni:-i和-n的结合。r:读 w:写 x :可执行。

2023-12-02 19:41:01 113

原创 接口自动化框架中的 配置文件 及 Allure报告

3. 在终端输入pytest运行测试,然后输入 allure serve report 生成测试报告。Allure安装:pip install allure-pytest。配置文件 config.py 位置。2. 使用Allure生成在线报告。

2023-11-28 00:11:41 105

原创 单接口测试及数据驱动

当测试用例过多或需要修改测试数据时,此方法可维护性就比较差,那么就需要使用。以测试数据驱动脚本执行,维护焦点从脚本转向测试数据的一种自动化。需要引入pytest:import pytest。实现测试数据与测试代码分开管理。

2023-11-26 22:30:24 112

原创 接口自动化测试

前提:安装requests:pip install requests需要安装pytest,不用调用就可以直接执行,安装命令。

2023-11-22 22:17:48 93

原创 使用postman测试

第一步:第二步:第三步:添加请求第四步:填写请求。

2023-11-15 23:01:51 688

原创 软件测试---场景法(功能测试)

2、先测试业务,在测试单功能、单模块、单页面。能对于项目业务进行设计测试点---场景法。1、覆盖业务测试, 需要使用流程图法。

2023-11-07 21:13:57 172

原创 软件测试---错误推荐法应用场景

应用场景:当项目用例都执行完毕,且BUG修复完成,离上线还有一段时间,在这段时间中可是使用错误推荐法复测主要业务或测试未覆盖的功能。

2023-11-07 21:13:13 109

原创 软件测试---判定表法(功能测试)

1. 有多个输入条件,多个输出结果,输入条件之间有组合关系,输入条件和输出结果之间有依赖(制约)关系。假设有n个条件,每个条件的取值有两个(0,1),全组合有2的n次方种规则。3. 如果条件超过4个,就不适合覆盖所有条件,应采用 (正交法) 来解决。2. 判定表一般适用于条件组合数量较少的情况(比如4不条件以下): 列出问题中的所有条件,列出条件的次序无关紧要。列出条件项的、各种取值情况下应该采取的动作结果。: 列出条件对应的取值,所有可能情况下的真假值。判定表中贯穿条件项和动作项的一列就是一条规则。

2023-10-31 22:44:55 330

原创 软件测试---边界值分析(功能测试)

(考虑开闭区间,开区间选择内部离点,闭区间选择外部离点)选取正好等于、刚好大于、刚好小于边界的值作为测试数据。: 距离上点最近的点 (刚好大于、刚好小于);提示:单个输入框,常用的方式:边界+等价类。: 范围内的点 (区间范围内的数据);: 边界上的点 (正好等于);4. 提取数据编写测试用例。2. 确定有效和效等价类。3. 确定边界范围值。(建议选择中间范围)

2023-10-30 00:11:25 646

原创 软件测试---等价类划分(功能测试)

能对穷举场景设计测试点-----等价类划分。

2023-10-29 20:00:58 659

原创 软件测试定义、分类、流程、用例格式

是指通过运行软件系统或应用程序,以验证它是否满足预期要求、功能是否正常、是否存在缺陷或错误,并评估其质量和可靠性的过程。功能测试,自动化测试,接口测试,性能测试1)按测试阶段划分 2)按代码可见度划分:单元测试,集成测试,系统测试,验收测试:黑盒测试,灰盒测试,白盒测试单元测试: 针对程序源代码进行测试(开发人员测试)集成测试:又称接口测试,针对模块之间访问地址进行测试系统测试: 对整个系统进行测试,包括功能,兼容,文档等测试验收测试:主要分为内测,公测,使用不同用户来发觉项目缺陷。

2023-10-29 19:25:02 142

原创 Python---递归

递归:即方法(函数)自己调用自己的一种特殊编程写法。使用场景:找出一个文件夹中全部的文件。

2023-10-28 15:46:50 55

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除