📝 面试求职: 「面试试题小程序」 ,内容涵盖 测试基础、Linux操作系统、MySQL数据库、Web功能测试、接口测试、APPium移动端测试、Python知识、Selenium自动化测试相关、性能测试、性能测试、计算机网络知识、Jmeter、HR面试,命中率杠杠的。(大家刷起来…)
📝 职场经验干货:
为什么从用例续写开始?
1)测试分析和设计是整个测试活动中对于业务和技术理解能力要求最高的部分
测试人员在完成这类工作时,不仅仅需要参考本次业务改造对应的需求文档/PRD, 也需要参考过往的同类需求、系统的实现、业务背景等等各个方面的知识。而目前即使LLM自身能力已经相当强悍,但是在现实中大部分公司团队的软件工程能力还处于作坊阶段,研发团队自身的数字化水平很低,无法通过RAG等方式为LLM提供除了PRD之外的上下文,会严重限制LLM进行测试设计的效果。
而用例续写场景相对简单,主要依赖已有测试用例的模式与逻辑,对额外上下文依赖度低。即使团队数字化水平有限,LLM 也能基于现有的用例历史数据进行学习与模仿,避开因上下文不足导致的 “信息盲区”,在可控范围内发挥作用,提升测试用例编写效率,避免因团队数字化短板导致 AI 应用失效。
2. 匹配 LLM 能力优势,解决测试用例编写痛点
测试用例编写存在大量重复劳动(如下图所示,同一测试点下,测试步骤、数据高度相似),这不仅耗费人工精力,也被视为测试工作 “低值易耗” 的典型问题。

LLM 的核心能力之一是通过学习已有模式生成内容,“参考先前用例续写新用例” 正好契合这一特性,与 AI 在软件开发中广泛应用的 “代码续写” 逻辑一致。利用 LLM 进行用例续写,能高效处理重复、机械的编写任务,将测试人员从简单劳动中解放,使其聚焦于复杂场景设计、业务风险分析等更具价值的工作。这种方式充分发挥了 LLM 的能力优势,同时直接解决了测试用例编写环节的现实痛点,是 AI 技术与测试工作结合的高效切入点。
3. 降低项目风险,提升团队信心
用例续写功能相对简单明确,实施过程中技术复杂度与不确定性较低,失败风险可控。与直接尝试复杂的测试分析、设计等 AI 应用相比,用例续写更易快速取得阶段性成果(如生成一定数量符合要求的测试用例),让团队切实感受到 AI 对测试效率的提升,从而增强对 AI + 测试进一步深入应用的信心,减少团队对新技术引入的抵触情绪,为后续更复杂的 AI 测试应用(如智能测试分析、自动化场景设计)奠定信任基础。
- 方案核心目标
##以下内容是豆包生成,不保证与实际实现方案的一致性。内部项目已完成测试要点-测试用例-自动化用例的续写POC##

最低0.47元/天 解锁文章
1010

被折叠的 条评论
为什么被折叠?



