实战:用提示词生成API接口测试计划的步骤

 

实战:用提示词生成 API 接口测试计划的步骤

**

1. 前言

在 API 接口测试工作里,测试计划是很重要的一部分。它能明确测试目标、范围和步骤,让测试工作有序进行。以往,编写测试计划需要花费不少时间,还要结合大量的项目经验。现在,用提示词生成 API 接口测试计划成了一种新方式。这种方式能节省时间,还能保证计划的完整性。下面,就详细说一下用提示词生成 API 接口测试计划的具体步骤。

2. 前期准备工作

在开始用提示词生成 API 接口测试计划之前,要做好一些准备工作。这些工作能让后续的提示词编写更精准,生成的测试计划更符合实际需求。

2.1 明确 API 接口相关信息

首先,要把 API 接口的相关信息收集完整。这些信息包括接口的功能用途、接口的请求方式(比如 GET、POST、PUT、DELETE 等)、接口的请求参数(包括参数名称、数据类型、是否必填等)、接口的返回数据格式(比如 JSON 格式)以及接口的预期返回结果。

比如,一个用户登录的 API 接口,功能用途是让用户输入账号和密码进行登录验证;请求方式是 POST;请求参数有 “username”(字符串类型,必填)和 “password”(字符串类型,必填);返回数据格式是 JSON,预期返回结果可能是登录成功时返回 “success: true” 和用户信息,登录失败时返回 “success: false” 和错误提示信息。

只有把这些信息整理清楚,才能在提示词里准确描述,让生成的测试计划针对具体接口。

2.2 确定测试计划的核心内容

不同项目对 API 接口测试计划的要求可能不同,但核心内容大致一样。在准备阶段,要确定好测试计划必须包含的部分,比如测试目标、测试范围、测试环境、测试用例设计、测试执行步骤、缺陷管理以及测试风险评估等。

测试目标要明确通过测试想达到什么效果,比如验证接口功能是否正常、接口性能是否满足要求、接口安全性是否达标等。测试范围要确定哪些接口需要测试,哪些接口暂时不测试,避免测试遗漏或范围过大。测试环境要说明测试时使用的服务器环境、数据库环境等。

提前确定这些核心内容,能在编写提示词时更有针对性,确保生成的测试计划包含所有必要信息,满足项目需求。

3. 提示词的设计原则

设计合适的提示词是生成高质量 API 接口测试计划的关键。提示词要清晰、准确,能让 AI 理解我们的需求。下面是提示词设计的几个重要原则。

3.1 明确需求描述

提示词里要清楚说明我们需要生成 API 接口测试计划,还要把之前收集的 API 接口相关信息和确定的测试计划核心内容都包含进去。不能用模糊的表述,比如不能只说 “帮我生成一个 API 接口测试计划”,这样 AI 不知道具体要针对哪个接口、包含哪些内容,生成的计划会比较笼统,没有实际意义。

正确的做法是,在提示词里详细说明接口的信息和测试计划的核心内容,比如 “请根据以下 API 接口信息生成一份 API 接口测试计划,接口信息:用户登录接口,请求方式为 POST,请求参数有 username(字符串,必填)和 password(字符串,必填),返回数据格式为 JSON;测试计划需包含测试目标、测试范围、测试环境、测试用例设计、测试执行步骤、缺陷管理和测试风险评估。”

3.2 分点列出关键信息

为了让 AI 更容易理解提示词里的信息,我们可以把关键信息分点列出来。分点的方式能让信息更有条理,避免信息混乱。比如在提示词里描述 API 接口信息时,可以分点写成:

  1. 接口名称:用户登录接口
  1. 接口功能:验证用户账号和密码,实现用户登录
  1. 请求方式:POST
  1. 请求参数:
    • username:字符串类型,必填,用户账号
    • password:字符串类型,必填,用户密码
  1. 返回数据格式:JSON
  1. 预期返回结果:登录成功返回 {“success”: true, “userInfo”: {…}},登录失败返回 {“success”: false, “errorMsg”: “…”}

这样分点列出后,AI 能快速抓取到关键信息,生成的测试计划会更准确。

3.3 设定输出格式要求

在提示词里,还要设定好生成的测试计划的输出格式。比如要求用 Markdown 格式,并且使用一级标题、二级标题、三级标题来区分不同的内容模块,使用列表来展示测试用例等。

设定输出格式能让生成的测试计划更规范,方便后续查看和修改。比如可以在提示词里加上 “生成的测试计划请使用 Markdown 格式,用一级标题表示主要模块(如测试目标、测试范围等),二级标题表示模块下的细分内容,测试用例部分用列表展示,每个测试用例包含用例编号、测试场景、请求参数、预期结果。”

4. 编写初始提示词

根据前面提到的提示词设计原则,我们可以开始编写初始提示词了。初始提示词要把所有必要的信息都包含进去,为生成测试计划打下基础。

4.1 初始提示词的结构

初始提示词一般包含三个部分:需求说明、API 接口详细信息、测试计划输出要求。

需求说明部分,明确告知 AI 需要生成 API 接口测试计划;API 接口详细信息部分,把收集到的接口信息分点列出;测试计划输出要求部分,说明测试计划需要包含的核心内容和输出格式。

4.2 初始提示词示例

以用户登录 API 接口为例,初始提示词可以这样写:

“需求说明:请为以下 API 接口生成一份详细的 API 接口测试计划,用于指导后续的 API 接口测试工作。

API 接口详细信息:

  1. 接口名称:用户登录接口
  1. 接口 URL:http://www.example.com/api/login
  1. 接口功能:用户输入正确的账号和密码后,完成登录验证,返回用户登录状态和相关用户信息;若账号或密码错误,返回错误提示信息。
  1. 请求方式:POST
  1. 请求头:Content-Type: application/json
  1. 请求参数:
    • username:字符串类型,必填,长度为 6-20 位,只能包含字母和数字,用户注册时使用的账号
    • password:字符串类型,必填,长度为 8-20 位,包含字母、数字和特殊字符(!@#$%^&*),用户注册时设置的密码
  1. 返回数据格式:JSON
  1. 正常返回结果(登录成功):

{

"success": true,

"code": 200,

"message": "登录成功",

"data": {

"userId": "123456",

"username": "testuser",

"token": "eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9..."

}

}

  1. 异常返回结果:
    • 账号为空:{

"success": false,

"code": 400,

"message": "用户名不能为空"

}

    • 密码为空:{

"success": false,

"code": 400,

"message": "密码不能为空"

}

    • 账号不存在:{

"success": false,

"code": 401,

"message": "用户名不存在"

}

    • 密码错误:{

"success": false,

"code": 401,

"message": "密码错误"

}

测试计划输出要求:

  1. 测试计划需包含以下核心内容:测试目标、测试范围、测试环境、测试策略、测试用例设计、测试执行步骤、缺陷管理流程、测试风险评估与应对措施。
  1. 测试用例设计部分,每个测试用例需包含用例编号、测试场景、前置条件、请求参数、预期结果、测试优先级(高 / 中 / 低)。
  1. 输出格式采用 Markdown,使用一级标题表示核心内容模块,二级标题表示模块下的细分内容,测试用例用列表展示,每个测试用例内部用换行区分不同字段。”

5. 生成初始 API 接口测试计划

把编写好的初始提示词输入到 AI 工具中(比如 ChatGPT、豆包等),AI 会根据提示词生成初始的 API 接口测试计划。在这个过程中,要注意查看生成的计划是否符合我们的需求。

5.1 选择合适的 AI 工具

不同的 AI 工具在生成内容的质量和风格上可能会有差异。我们可以根据自己的使用习惯和项目需求选择合适的 AI 工具。

比如 ChatGPT 生成的内容逻辑性较强,细节比较丰富;豆包更贴合中文用户的表达习惯,对国内项目的场景理解更到位。在选择时,可以先进行简单的测试,输入少量提示词,看看生成的结果是否符合预期,再确定最终使用的工具。

5.2 输入提示词并生成计划

打开选择好的 AI 工具,把编写好的初始提示词复制粘贴到输入框中,然后点击生成按钮。AI 会开始处理提示词,并在一段时间后生成初始的 API 接口测试计划。

在生成过程中,不要频繁打断 AI 的处理,等待生成完成后再整体查看。如果生成的计划比较长,要耐心等待,确保 AI 能完整输出所有内容。

5.3 初步检查生成结果

生成初始测试计划后,要进行初步检查。主要看生成的计划是否包含了提示词中要求的所有核心内容,API 接口的信息是否准确对应,输出格式是否符合设定的要求。

比如检查是否有测试目标、测试范围等模块,测试用例是否包含用例编号、测试场景等字段,格式是否为 Markdown。如果发现有遗漏的内容或格式错误,要记录下来,为后续优化提示词做准备。

6. 优化提示词与测试计划

初步生成的测试计划可能存在一些问题,比如某些部分描述不够详细、测试用例设计不够全面等。这时候需要优化提示词,然后重新生成测试计划,直到满足需求为止。

6.1 分析初始测试计划的问题

仔细阅读初始测试计划,找出其中存在的问题。常见的问题有以下几种:

  1. 测试目标不够具体:比如只写 “验证接口功能正常”,没有说明具体要验证哪些功能点。
  1. 测试用例不全面:比如只设计了正常登录的测试用例,没有设计账号为空、密码错误等异常场景的用例。
  1. 测试环境描述模糊:比如只写 “测试服务器”,没有说明服务器的 IP 地址、端口号等信息。
  1. 缺陷管理流程不清晰:比如没有说明发现缺陷后要提交到哪个缺陷管理工具(如 Jira),以及缺陷的严重程度如何划分。

6.2 针对问题优化提示词

根据分析出的问题,对初始提示词进行优化。优化时,要针对具体问题补充更详细的信息或提出更明确的要求。

比如,如果初始测试计划中测试目标不够具体,在优化提示词时,可以把测试目标补充为:“1. 验证用户登录接口的正常功能,包括输入正确账号密码能成功登录并返回正确的用户信息和 token;2. 验证接口对异常场景的处理能力,包括账号为空、密码为空、账号不存在、密码错误、账号长度不符合要求(小于 6 位或大于 20 位)、密码长度不符合要求(小于 8 位或大于 20 位)、密码不包含特殊字符等场景,确保接口能返回正确的错误提示信息和错误代码;3. 验证接口的性能,在 100 个并发用户同时请求接口时,接口的响应时间不超过 1 秒,成功率不低于 99.9%;4. 验证接口的安全性,确保接口不允许 SQL 注入攻击,不返回敏感信息(如用户的明文密码)。”

如果测试用例不全面,在提示词的测试计划输出要求中,可以补充:“测试用例设计需覆盖所有正常场景和异常场景,异常场景包括但不限于账号为空、密码为空、账号不存在、密码错误、账号长度不符合要求(小于 6 位或大于 20 位)、密码长度不符合要求(小于 8 位或大于 20 位)、密码不包含特殊字符、请求参数格式错误(如 username 为数字类型)、缺少请求头(Content-Type)等。”

6.3 重新生成并检查测试计划

把优化后的提示词再次输入到 AI 工具中,生成新的测试计划。然后按照之前的初步检查方法,再次检查新生成的计划是否解决了之前发现的问题。

如果还有问题,就继续优化提示词,重复这个过程,直到生成的测试计划完全符合项目需求,没有明显的遗漏或错误。

7. 测试计划的细化与补充

经过多次优化后生成的测试计划已经比较完善了,但为了让测试计划更具可执行性,还需要对其进行细化和补充。

7.1 细化测试用例的步骤

在测试用例中,除了现有的字段外,还可以补充测试步骤。测试步骤要详细说明每个测试用例的执行过程,让测试人员能按照步骤顺利执行测试。

比如一个 “账号为空” 的测试用例,测试步骤可以补充为:

  1. 打开接口测试工具(如 Postman)。
  1. 在工具中新建一个 POST 请求,输入接口 URL:http://www.example.com/api/login
  1. 设置请求头:Content-Type: application/json。
  1. 编写请求参数,其中 username 字段为空字符串,password 字段输入正确的密码(如 Test123!),请求参数示例:{“username”: “”, “password”: “Test123!”}。
  1. 点击发送按钮,发送请求。
  1. 查看接口返回结果,并与预期结果进行对比。

7.2 补充测试数据

测试数据是执行测试用例的重要依据。在测试计划中,要为每个测试用例补充对应的测试数据。测试数据要符合测试场景的要求,确保测试的有效性。

比如 “账号长度小于 6 位” 的测试用例,测试数据可以补充为:username 为 “test”(4 位),password 为 “Test123!”(符合密码要求);“密码不包含特殊字符” 的测试用例,测试数据可以补充为:username 为 “testuser123”(符合账号要求),password 为 “Test123456”(没有特殊字符)。

7.3 明确测试时间安排

在测试计划中,要明确测试的时间安排,包括测试计划评审时间、测试用例设计完成时间、测试执行开始时间和结束时间、测试报告提交时间等。

比如:

  1. 测试计划评审时间:XXXX 年 XX 月 XX 日 14:00-15:00
  1. 测试用例设计完成时间:XXXX 年 XX 月 XX 日 17:00 前
  1. 测试执行开始时间:XXXX 年 XX 月 XX 日 9:00
  1. 测试执行结束时间:XXXX 年 XX 月 XX 日 17:00
  1. 测试报告提交时间:XXXX 年 XX 月 XX 日 12:00 前

明确的时间安排能让测试工作有序推进,避免出现延误。

7.4 确定测试人员分工

如果测试工作由多个测试人员共同完成,在测试计划中要确定每个测试人员的分工。分工要明确,避免出现重复工作或工作遗漏的情况。

比如:

  1. 测试人员 A:负责测试用例的评审、正常登录场景和账号为空场景的测试执行、缺陷提交。
  1. 测试人员 B:负责密码为空场景、账号不存在场景、密码错误场景的测试执行、缺陷验证。
  1. 测试人员 C:负责账号长度不符合要求场景、密码长度不符合要求场景、密码不包含特殊字符场景、请求参数格式错误场景、缺少请求头场景的测试执行、测试报告的编写。

确定分工后,每个测试人员都能清楚自己的职责,提高测试工作的效率。

8. 测试计划的评审与调整

生成并细化测试计划后,还需要组织相关人员进行评审。评审能发现测试计划中存在的问题,确保测试计划的合理性和可行性。

8.1 确定评审人员

评审人员通常包括测试负责人、测试人员、开发人员(负责该 API 接口的开发)、产品经理。

测试负责人能从整体测试策略和项目需求的角度对测试计划进行评审;测试人员能从测试执行的角度提出意见;开发人员能从接口实现的角度判断测试计划是否合理,比如某些测试场景是否在接口设计中已经考虑到;产品经理能从产品功能需求的角度确认测试目标和测试范围是否符合产品要求。

8.2 组织评审会议

确定评审人员后,要组织评审会议。在会议前,把测试计划发送给所有评审人员,让他们提前阅读,熟悉测试计划的内容,准备评审意见。

评审会议的流程一般包括:

  1. 测试负责人介绍测试计划的编写背景、核心内容和编写思路,时间控制在 10-15 分钟。
  2. 测试负责人记录所有评审意见和讨论结果,形成评审纪要。评审纪要需包含评审时间、评审人员、提出的意见、讨论结果、是否需要修改以及修改责任人等信息。
  3. 8.3 根据评审意见调整测试计划

    评审会议结束后,修改责任人要根据评审纪要中的意见,对测试计划进行调整。调整时要注意以下几点:

  4. 对于需要修改的内容,要明确修改方向和修改后的要求。比如评审人员提出 “测试用例中缺少请求参数格式错误的场景”,修改责任人就要在测试用例设计部分补充该场景的测试用例,包含对应的用例编号、测试场景、前置条件、请求参数、预期结果和测试优先级。
  5. 修改完成后,要再次检查修改后的内容是否符合评审要求,确保没有遗漏或修改错误。比如补充请求参数格式错误场景的测试用例后,要检查用例中的请求参数是否正确(如将 username 设为数字类型 “123456”),预期结果是否合理(如返回 “用户名格式错误” 的提示信息和对应的错误代码)。
  6. 如果修改内容较多,调整后的测试计划可以再次组织小规模评审,邀请主要评审人员确认修改结果,避免仍存在不符合要求的地方。
  7. 8.4 确认最终测试计划

    当测试计划调整完成并通过确认后,就形成了最终的 API 接口测试计划。最终测试计划要发送给所有相关人员(包括测试人员、开发人员、产品经理、项目负责人等),让大家了解测试计划的内容,为后续的测试执行工作做好准备。

    9. 测试计划的执行与效果验证

    最终测试计划确定后,就可以按照计划开展 API 接口测试工作。在执行过程中,要关注测试计划的可行性和有效性,并根据实际情况进行适当调整(若有必要)。

    9.1 按照测试计划执行测试

    测试人员要严格按照测试计划中的测试用例、测试步骤和测试时间安排执行测试。执行过程中要注意以下事项:

  8. 准确记录测试过程中的每一个步骤和结果。比如执行某个测试用例时,要记录发送请求的时间、请求参数、实际返回结果,以及是否与预期结果一致。如果不一致,要详细记录差异之处,为后续缺陷提交提供依据。
  9. 及时提交缺陷。当发现接口存在问题时,要按照测试计划中的缺陷管理流程,在指定的缺陷管理工具(如 Jira)中提交缺陷。缺陷报告要包含缺陷标题、缺陷描述(详细说明测试场景、操作步骤、实际结果、预期结果)、缺陷严重程度(如致命、严重、一般、轻微)、缺陷优先级、附件(如接口返回结果的截图)等信息。
  10. 跟踪缺陷修复情况。提交缺陷后,测试人员要定期查看缺陷的状态(如新建、已分配、正在修复、已修复、已验证、已关闭),督促开发人员及时修复缺陷。当缺陷修复完成后,要按照测试用例重新执行测试,验证缺陷是否已解决。
  11. 9.2 验证测试计划的效果

    测试执行工作完成后,要对测试计划的效果进行验证。验证的维度主要包括以下几个方面:

  12. 测试目标的达成情况。检查通过测试是否实现了测试计划中设定的测试目标。比如测试目标中提到 “验证接口在 100 个并发用户同时请求时,响应时间不超过 1 秒,成功率不低于 99.9%”,就要查看性能测试的结果,确认响应时间和成功率是否符合要求。如果符合,说明测试目标达成;如果不符合,要分析原因(如接口性能优化不足),并在后续测试中跟进。
  13. 测试覆盖度。检查测试用例是否覆盖了测试计划中设定的测试范围和所有关键场景。比如测试范围包含 “用户登录接口的正常场景和异常场景”,就要统计测试用例中正常场景(如正确账号密码登录)和异常场景(如账号为空、密码错误、账号长度不符合要求等)的数量,确认是否所有场景都有对应的测试用例,且都已执行。
  14. 测试效率。对比实际测试执行时间与测试计划中预估的测试时间,分析测试效率。如果实际执行时间远超过预估时间,要查找原因。可能的原因包括测试用例设计过于复杂、测试环境不稳定、测试人员对测试工具不熟悉等。针对这些原因,总结经验教训,为后续编写测试计划提供参考,提高测试效率。
  15. 缺陷发现率。统计测试过程中发现的缺陷数量,尤其是严重缺陷和致命缺陷的数量,评估测试计划对缺陷的发现能力。如果发现的缺陷数量较少,尤其是关键场景下的缺陷未被发现,可能是测试用例设计不够全面,需要反思测试计划中测试用例设计部分是否存在不足,以便在后续类似项目中改进。
  16. 9.3 记录测试总结信息

    测试执行和效果验证完成后,要记录测试总结信息。总结信息包括测试执行的总体情况(如测试用例执行总数、通过数、失败数、通过率)、测试目标的达成情况、测试过程中遇到的问题及解决方法、测试计划的优点与不足、改进建议等。这些信息可以作为项目总结的一部分,也能为后续编写 API 接口测试计划提供经验参考。

    10. 基于实战经验优化提示词模板

    在完成一次用提示词生成 API 接口测试计划的实战后,可以根据本次的经验,优化提示词模板。这样在后续类似项目中,能更快速、更准确地生成测试计划,提高工作效率。

    10.1 总结本次提示词的优点与不足

    回顾本次编写提示词的过程和生成的测试计划,总结提示词的优点和不足:

  17. 优点:比如本次提示词中 “分点列出了 API 接口的详细信息(包括接口 URL、请求头、请求参数的具体要求、返回结果示例等)”,让 AI 能准确抓取接口信息,生成的测试计划针对性强;“明确要求测试用例包含用例编号、测试场景等多个字段”,确保了测试用例的完整性。
  18. 不足:比如本次提示词中 “未明确要求测试时间安排的具体格式(如以表格形式呈现)”,导致生成的初始测试计划中时间安排部分格式不够清晰;“未提及测试数据的具体要求(如测试数据的来源、是否需要脱敏)”,使得初始测试计划中测试数据部分不够详细。
  19. 10.2 优化提示词模板

    根据总结的优点和不足,对提示词模板进行优化。优化后的模板应包含更全面、更明确的要求,示例如下:

    “需求说明:请为以下 API 接口生成一份详细的 API 接口测试计划,用于指导后续的 API 接口测试工作,确保测试工作有序、高效开展。

    API 接口详细信息(需分点清晰列出,包含以下内容):

  20. 接口名称:[填写接口名称,如用户登录接口]
  21. 接口 URL:[填写完整的接口 URL,如 http://www.example.com/api/login]
  22. 接口功能:[详细描述接口的功能,包括正常处理逻辑和异常处理逻辑,如用户输入正确账号密码时完成登录验证并返回用户信息和 token,账号不存在时返回错误提示]
  23. 请求方式:[填写请求方式,如 POST、GET 等]
  24. 请求头:[列出所有必要的请求头,包括名称和值,如 Content-Type: application/json]
  25. 请求参数:[每个参数需包含名称、数据类型、是否必填、取值范围 / 格式要求、说明,如 username:字符串类型,必填,长度 6-20 位,仅含字母和数字,用户注册账号]
  26. 返回数据格式:[填写返回数据格式,如 JSON]
  27. 正常返回结果:[提供完整的正常返回示例,包含所有字段及说明,如 {"success":true,"code":200,"message":"登录成功","data":{"userId":"123","username":"test","token":"xxx"}}]
  28. 异常返回结果:[列出所有可能的异常场景及对应的返回示例,每个异常场景需包含场景描述、返回结果,如账号为空:{"success":false,"code":400,"message":"用户名不能为空"}]
  29. 测试数据要求:[说明测试数据的来源(如测试环境数据库中的测试账号)、是否需要脱敏(如密码需用加密后的格式)]
  30. 测试计划输出要求(需严格遵守):

  31. 核心内容:必须包含测试目标、测试范围、测试环境(需含服务器 IP、端口号、数据库信息、测试工具)、测试策略(如功能测试、性能测试、安全性测试的具体策略)、测试用例设计、测试执行步骤、缺陷管理流程(含缺陷管理工具、缺陷严重程度划分标准、缺陷处理流程)、测试风险评估与应对措施、测试时间安排(需用表格形式,包含阶段名称、开始时间、结束时间、负责人)、测试人员分工。
  32. 测试用例设计:每个测试用例需包含用例编号(格式如 TC - 登录 - 001)、测试场景、前置条件、测试步骤(详细到每一步操作)、请求参数(含具体测试数据)、预期结果、测试优先级(高 / 中 / 低)、测试类型(功能测试 / 性能测试等)。
  33. 输出格式:采用 Markdown 格式,一级标题对应核心内容模块,二级标题对应模块下的细分内容,三级标题对应细分内容下的具体项(如需);测试用例用有序列表展示,测试时间安排用表格展示;文字表述简洁明了,避免冗余。”
  34. 10.3 后续项目中复用与调整模板

    优化后的提示词模板可以在后续类似的 API 接口测试计划生成工作中复用。复用时,只需根据新项目的 API 接口信息和项目需求,修改模板中 “API 接口详细信息” 部分的内容,以及根据实际情况调整 “测试计划输出要求” 中的部分细节(如测试环境的具体信息、测试时间安排的阶段划分等),就能快速生成符合新项目需求的提示词,进而生成高质量的测试计划。

    11. 常见问题与解决方法

    在使用提示词生成 API 接口测试计划的过程中,可能会遇到一些常见问题。了解这些问题及对应的解决方法,能帮助我们更顺利地完成测试计划的生成工作。

    11.1 问题 1:AI 生成的测试计划与实际需求偏差较大

    11.1.1 问题表现

    AI 生成的测试计划中,部分内容不符合项目的实际需求。比如项目要求测试接口的安全性(如防止 XSS 攻击),但生成的测试计划中没有包含安全性测试相关的内容;或者测试用例中的预期结果与接口实际应返回的结果不一致。

    11.1.2 解决方法
  35. 检查提示词中是否完整包含了项目需求信息。如果提示词中没有提到安全性测试的要求,要在 “需求说明” 或 “测试计划输出要求” 中补充,如 “测试计划需包含安全性测试部分,验证接口是否能防止 SQL 注入、XSS 攻击等常见安全问题”。
  36. 细化 API 接口的返回结果信息。如果提示词中 “异常返回结果” 部分描述不详细,导致 AI 生成的预期结果不准确,要补充完整的异常返回示例,明确每个异常场景对应的错误代码和错误提示信息,如 “XSS 攻击场景:请求参数中包含 标签,接口应返回 {"success":false,"code":403,"message":"请求参数包含非法字符"}”。
  37. 生成初始测试计划后,增加一轮 “需求匹配检查”,对比生成的计划与项目需求文档,找出偏差之处,针对性优化提示词并重新生成计划。
  38. 11.2 问题 2:测试用例设计重复或遗漏关键场景

    11.2.1 问题表现

    AI 生成的测试用例中,存在多个测试用例场景重复的情况(如两个用例都测试 “密码为空” 的场景,只是请求参数的其他无关字段略有不同);或者遗漏了接口的关键测试场景(如接口有分页功能,但测试用例中没有测试分页参数异常的场景,如 pageNum 为 0 或负数)。

    11.2.2 解决方法
  39. 在提示词中明确要求测试用例场景不重复,且覆盖所有关键场景。比如在 “测试计划输出要求” 的测试用例设计部分补充:“测试用例场景需唯一,避免重复;需覆盖接口的所有关键功能场景和异常场景,包括但不限于参数合法性、边界值、功能逻辑、异常处理、特殊场景(如分页参数异常、超时处理等)”。
  40. 提前梳理接口的关键场景清单,在提示词中 “API 接口详细信息” 或 “测试计划输出要求” 中列出,如 “关键场景清单:1. 正常分页查询(pageNum=1,pageSize=10);2. pageNum 为 0;3. pageNum 为负数;4. pageSize 超过最大值(如 100);5. 分页查询无数据场景”,让 AI 能根据清单设计测试用例。
  41. 生成测试用例后,使用 “场景覆盖度检查表” 进行检查,检查表包含接口的所有关键场景,逐一核对测试用例是否覆盖,发现重复或遗漏后,优化提示词补充或删除对应内容。
  42. 11.3 问题 3:测试计划的格式不符合要求

    11.3.1 问题表现

    AI 生成的测试计划格式混乱,比如没有按照要求使用 Markdown 一级标题、二级标题区分模块;测试时间安排没有用表格展示,而是用文字罗列,导致阅读困难;测试用例中的字段顺序混乱(如先写预期结果,再写请求参数)。

    11.3.2 解决方法
  43. 在提示词 “测试计划输出要求” 中,更详细地规定格式细节。比如:“一级标题格式为 # 标题名称(如 # 测试目标),二级标题格式为 ## 标题名称(如 ## 测试环境详情),三级标题格式为 ### 标题名称(如需);测试时间安排表格需包含 4 列,列名分别为‘阶段名称’‘开始时间’‘结束时间’‘负责人’,表格使用 Markdown 表格语法;测试用例每个字段的顺序固定为:用例编号→测试场景→前置条件→测试步骤→请求参数→预期结果→测试优先级→测试类型”。
  44. 若 AI 仍未按格式要求生成,可在提示词中添加格式示例。比如在 “测试时间安排” 部分添加示例表格:
  45. | 阶段名称 | 开始时间 | 结束时间 | 负责人 |

    |----------------|----------------|----------------|----------|

    | 测试计划评审 | XXXX-XX-XX 14:00 | XXXX-XX-XX 15:00 | 测试负责人 |

    | 测试用例执行 | XXXX-XX-XX 9:00 | XXXX-XX-XX 17:00 | 测试人员 A |

    让 AI 参考示例格式生成对应的内容。

    11.4 问题 4:AI 生成的测试计划内容过于简略

    11.4.1 问题表现

    AI 生成的测试计划中,部分模块内容过于简略,缺乏可执行性。比如 “测试执行步骤” 部分只写了 “按照测试用例执行测试”,没有说明执行前的准备工作(如测试环境的搭建、测试工具的配置)、执行中的注意事项(如测试数据的备份)、执行后的结果记录要求;“测试风险评估与应对措施” 部分只列出了风险,没有对应的应对措施。

    11.4.2 解决方法
  46. 在提示词中对每个模块的内容要求进行细化,明确每个模块需要包含的具体信息。比如在 “测试执行步骤” 部分补充:“测试执行步骤需包含三部分:1. 执行前准备:说明测试环境搭建步骤(如安装 Postman、配置测试服务器地址)、测试数据准备(如在测试数据库中创建测试账号)、测试工具配置(如设置请求超时时间为 5 秒);2. 执行过程:按测试用例顺序执行,说明每一步的具体操作(如打开 Postman、新建请求、输入参数、发送请求)、结果记录要求(如使用 Excel 表格记录或在测试管理工具中填写);3. 执行后处理:测试数据备份、测试环境清理(如需)、测试结果汇总”。
  47. 对 “测试风险评估与应对措施” 部分,明确要求每个风险都需对应至少一条应对措施,如 “测试风险 1:测试环境不稳定,导致测试中断;应对措施:1. 测试前检查测试环境状态,确保服务器、数据库正常运行;2. 准备备用测试环境,若主环境出现问题,及时切换到备用环境继续测试;3. 记录环境故障发生的时间、现象,反馈给运维人员处理”。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值