AI用得好,每天下班早!用Dify打造专属智能测试小助手

📝 面试求职: 「面试试题小程序」 ,内容涵盖 测试基础、Linux操作系统、MySQL数据库、Web功能测试、接口测试、APPium移动端测试、Python知识、Selenium自动化测试相关、性能测试、性能测试、计算机网络知识、Jmeter、HR面试,命中率杠杠的。(大家刷起来…)

📝 职场经验干货:

软件测试工程师简历上如何编写个人信息(一周8个面试)

软件测试工程师简历上如何编写专业技能(一周8个面试)

软件测试工程师简历上如何编写项目经验(一周8个面试)

软件测试工程师简历上如何编写个人荣誉(一周8个面试)

软件测试行情分享(这些都不了解就别贸然冲了.)

软件测试面试重点,搞清楚这些轻松拿到年薪30W+

软件测试面试刷题小程序免费使用(永久使用)


近两年AI快速发展,给各行各业带来了机遇和挑战,软件测试行业也面临着同样的问题,如何快速拥抱AI,不被AI所淘汰,是所有测试工程师要面对的问题。所以我们需要了解和学习AI在工作中应用,提高工作效率。

目前测试在ai方面的应用

据我所了解,目前在测试领域AI可以落地的有四个方面:

1、单元测试

通过现有的代码,在IDE里面使用copilot、 comate等AI辅助编码插件形式生成单元测试用例。可以快速创建用例,方便快捷,提高工作效率。

2、测试用例

给大模型输入需求和输出的用例格式要求,生成所需格式的测试用例。也可以扩展接入用例系统自动添加到用例库。目前对小需求还可以很好的生成用例,大的需求和很多版本后的迭代需求,目前还是有很多问题。

3、接口用例

给接口的请求方法,URL,参数和类型取值等,再给一条可以调通的接口参数进行用例扩展,目前是可以的。可以把生成的接口用例和数据接入接口测试平台中。

4、测试小助手

如果把测试人员日常工作中的事情,放到一个智能体中,比如可以方便快捷的部署服务,打包,创建测试数据等。这样可以节省很多测试人员的时间。

可以想象一个场景,以后只需要和小助手聊天就可以部署服务,打包,日常工作任务的处理。是不是很科幻呢,可以告诉你,现在就可以实现了。下面是搭建智能体的实例。

使用工具Dify

01 介绍

Dify 是一款开源的大语言模型(LLM) 应用开发平台。

它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。

由于 Dify 内置了构建 LLM 应用所需的关键技术栈,包括对数百个模型的支持、直观的 Prompt 编排界面、高质量的 RAG 引擎、稳健的 Agent 框架、灵活的流程编排,并同时提供了一套易用的界面和 API。

这为开发者节省了许多重复造轮子的时间,使其可以专注在创新和业务需求上。

02 为什么使用 Dify?

你或许可以把 LangChain 这类的开发库(Library)想象为有着锤子、钉子的工具箱。与之相比,Dify 提供了更接近生产需要的完整方案,Dify 好比是一套脚手架,并且经过了精良的工程设计和软件测试。

需要借助Dify的chat-workflow工作流编排,实现测试智能体

1 部署dify很简单,通过docker部署只需要一个命令,可以通过官方文档找到部署的教程。

2 chat-workflow工作流常用的组件。

开始
"开始" 节点是每个工作流应用(Chatflow / Workflow)必备的预设节点,为后续工作流节点以及应用的正常流转提供必要的初始信息,例如应用使用者所输入的内容、以及上传的文件等。

核心就是sys.query这个用户输入变量,后面经常使用

问题分类器

通过定义分类描述,问题分类器能够根据用户输入,使用 LLM 推理与之相匹配的分类并输出分类结果,向下游节点提供更加精确的信息。

常见的使用情景包括客服对话意图分类、产品评价分类、邮件批量分类等。

在一个典型的产品客服问答场景中,问题分类器可以作为知识库检索的前置步骤,对用户输入问题意图进行分类处理,分类后导向下游不同的知识库查询相关的内容,以精确回复用户的问题。

http请求

允许通过 HTTP 协议发送服务器请求,适用于获取外部数据、webhook、生成图片、下载文件等情景。它让你能够向指定的网络地址发送定制化的 HTTP 请求,实现与各种外部服务的互联互通。

该节点支持常见的 HTTP 请求方法:

  • GET,用于请求服务器发送某个资源。

  • POST,用于向服务器提交数据,通常用于提交表单或上传文件。

  • HEAD,类似于 GET 请求,但服务器不返回请求的资源主体,只返回响应头。

  • PATCH,用于在请求-响应链上的每个节点获取传输路径。

  • PUT,用于向服务器上传资源,通常用于更新已存在的资源或创建新的资源。

  • DELETE,用于请求服务器删除指定的资源。

参数提取器

利用 LLM 从自然语言推理并提取结构化参数,用于后置的工具调用或 HTTP 请求。

Dify 工作流内提供了丰富的工具选择,其中大多数工具的输入为结构化参数,参数提取器可以将用户的自然语言转换为工具可识别的参数,方便工具调用。

工作流内的部分节点有特定的数据格式传入要求,如迭代节点的输入要求为数组格式,参数提取器可以方便的实现结构化参数的转换。

LLM

调用大语言模型的能力,处理用户在 “开始” 节点中输入的信息(自然语言、上传的文件或图片),给出有效的回应信息

应用场景

LLM 节点是 Chatflow/Workflow 的核心节点。该节点能够利用大语言模型的对话/生成/分类/处理等能力,根据给定的提示词处理广泛的任务类型,并能够在工作流的不同环节使用。

  • 意图识别,在客服对话情景中,对用户问题进行意图识别和分类,导向下游不同的流程。

  • 文本生成,在文章生成情景中,作为内容生成的节点,根据主题、关键词生成符合的文本内容。

  • 内容分类,在邮件批处理情景中,对邮件的类型进行自动化分类,如咨询/投诉/垃圾邮件。

  • 文本转换,在文本翻译情景中,将用户提供的文本内容翻译成指定语言。

  • 代码生成,在辅助编程情景中,根据用户的要求生成指定的业务代码,编写测试用例。

  • RAG,在知识库问答情景中,将检索到的相关知识和用户问题重新组织回复问题。

  • 图片理解,使用具备 vision 能力的 LLM,理解与问答图像内的信息。

  • 文件分析,在文件处理场景中,使用 LLM 识别并分析文件包含的信息。

  • 选择合适的模型,编写提示词,你可以在 Chatflow/Workflow 中构建出强大、可靠的解决方案。

最后: 下方这份完整的软件测试视频教程已经整理上传完成,需要的朋友们可以自行领取【保证100%免费】

​​
在这里插入图片描述​​

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值