【Agent教程】1.手把手教你使用仪酷智能 Agent制作并调用 VI 工具

‍‍🏡博客主页: virobotics(仪酷智能):LabVIEW深度学习、人工智能博主
🎄所属专栏:『AI Agent for LabVIEW』
📑推荐文章:『LabVIEW人工智能深度学习指南』
🍻本文由virobotics(仪酷智能)原创

🥳欢迎大家关注✌点赞👍收藏⭐留言📝订阅专栏

🧩前言

大家好,这里是仪酷智能VIRobotics。

今天主要想要和大家分享如何在 仪酷智能 Agent 环境下创建、配置并调用自定义 VI 工具。我们将从最基础的工具制作讲起,到最后实现智能 Agent 自动调用 VI 的完整过程。


一、仪酷智能Agent简介

AI Agent for LabVIEW 是由 仪酷智能 开发的智能体工具包,为 LabVIEW 用户提供与大语言模型(LLM)的无缝集成体验。通过该工具,用户可以在 LabVIEW 中直接调用多家主流模型服务,实现自然语言交互、自动生成 VI、文档解析与硬件控制等功能。

作为业内首个深度集成大模型的 LabVIEW 智能体工具,AI Agent 让用户能够通过自然语言快速创建、理解和调用 VI,构建智能实验室与自动化控制系统,加速工程研发与测试流程智能化。
在这里插入图片描述


二、主要功能

能力功能说明
生成 VI由大模型根据自然语言自动生成 VI 逻辑,帮助快速搭建程序原型。
解析 VI分析现有 VI 文件的功能、输入输出、层次结构和逻辑关系。
视觉生成与理解对图像进行生成、识别与分析,实现视觉智能。
文档解析自动解析 PDF、Word、Excel 等多种文档格式并提取关键信息。
文本与代码生成根据自然语言指令生成文本报告、算法脚本或 LabVIEW 代码片段。
硬件交互与传感器、执行器、采集卡等硬件进行智能交互与控制。
VI 工具制作与调用允许用户编写自定义 VI 工具,并由智能 Agent 自动调用,实现个性化扩展。

更多Agent功能期待与大家共创


三、环境搭建

1. 部署本项目时所用环境

  • 操作系统:Windows 64

  • LabVIEW:2018及以上 64位版本

  • AI Agent for LabVIEW工具包:>=1.17版本

2. 软件下载及安装

查看:https://blog.youkuaiyun.com/virobotics/article/details/151324436?spm=1011.2415.3001.5331

3. 配置Agent

查看:https://blog.youkuaiyun.com/virobotics/article/details/151324436?spm=1011.2415.3001.5331


四、Agent VI工具介绍

1. VI 工具的基本概念

在仪酷智能 Agent 框架中,工具(Tool) 是 Agent 的“能力扩展”。每个工具由两部分组成:

  • VI 文件(.vi) —— 实际执行逻辑的 LabVIEW 程序。

  • JSON 文件(.json) —— 描述该 VI 的元信息(输入输出、功能说明、路径等)。

Agent 通过读取这些工具的 JSON 描述文件来加载、理解并调用对应的 VI。

2. 工具文件的存放路径

在默认环境中,所有工具文件放在以下路径下:

National Instruments\LabVIEW 20xx\examples\VIRobotics\AI Agent\tools\basic_tools

如 LabVIEW2018 安装在 C 盘,则在:

C:\Program Files\National Instruments\LabVIEW 2018\examples\VIRobotics\AI Agent\tools\basic_tools

在这里插入图片描述

每个工具占用一个独立文件夹,其中包含:

  • 一个 .vi 文件(逻辑主体)

  • 一个 .json 文件(工具定义)

在这里插入图片描述


五、创建VI 工具

1. 新建 VI 文件

打开 LabVIEW,新建一个 VI,编写你的功能逻辑。 在前面板中,务必保证有一个字符串输出,名字为 result。 这是智能 Agent 获取 VI 执行结果的唯一出口。
如下范例所示获取日期和时间:
在这里插入图片描述

  • 输出控件名称:result

  • 输出类型:字符串

  • 内容:工具执行的最终结果

2. 保存 VI

将 VI 保存在 basic_tools 文件夹下的独立子文件夹中。 例如:

C:\Program Files\National Instruments\LabVIEW 2018\examples\VIRobotics\AI Agent\tools\basic_tools\get_date_and_time

在这里插入图片描述

3. 生成工具 JSON

  1. 接下来,为 VI 创建一个描述文件(JSON)。可以直接使用系统提供的工具界面编辑这个 JSON 文件。
    路径:Tools >> VIRobotics GenAI >> Agent_VI_Editor
    在这里插入图片描述

  2. 加载已经写好的 VI 工具
    在这里插入图片描述

  3. 输入当前 VI 描述,以便让大模型知道这个 VI 做什么用
    在这里插入图片描述

  4. 编辑完成后,在界面中点击 “生成 json” 按钮,这会自动生成可供 Agent 识别的 JSON 文件。 可以在 VI 同路径下看到生成的 JSON 文件。
    在这里插入图片描述


六、Agent中调用写好的工具

6.1 加载工具到仪酷智能 Agent

在 Agent 中,存在一个专门的 VI 用于加载所有工具。
它会扫描工具文件夹下的所有 JSON 文件并载入。
在这里插入图片描述

这样,Agent 就能理解:

  • 工具有什么功能;

  • 需要哪些输入;

  • 输出是什么;

  • 以及在哪里执行。


6.2 调用工具

1. 使用范例 deepseek_stream_with_tools.vi

1)打开 LabVIEW 的范例查找器(Find Example),选择模式为 Directory Structure。 导航至 VIRobotics\AI Agent\ 目录,您可以看到按模型厂商分类的范例文件夹。
在这里插入图片描述

2)选择 “Deepseek”,运行范例,可以获取当前时间,即调用当前写好的查找时间的 VI 工具。
在这里插入图片描述

Tips: 尝试备份并删掉查找时间的 VI 工具,并再次查询时间,看看结果。

2. 由智能 Agent 自动调用

当用户向 Agent 提出问题或任务时,Agent 会根据问题内容判断是否需要调用某个工具,然后自动运行相应的 VI,获取结果并返回。

具体步骤如下:

1)双击范例 deepseek_AI_Agent_Full.vi
2)运行并输入和刚刚制作工具相关的问题,如我们演示使用的是查询时间和日期的 VI,则提问当前时间。
在这里插入图片描述


七、其他工具的制作

其他工具也可以按照类似的办法制作。
需要注意的是:在 Editor 中填写的 “VI描述” 至关重要。
它让大模型理解工具的作用,从而在对话中正确调用。

例如:

  • 分析数据采集结果
    VI描述: “分析数据采集的结果,提取平均值、最大值、波形趋势等。”

  • 检查 VI 功能
    VI描述: “读取指定 VI 的功能说明并验证输入输出是否符合标准。”

这样,当你让 Agent 分析某项数据时,它会自动选择合适的工具执行,而无需你显式调用。


总结

通过以上步骤,我们完整体验了在 仪酷智能 Agent for LabVIEW 环境下,如何从零开始创建、配置并调用自定义 VI 工具。
从理解 VI 工具的结构、编辑 JSON 描述文件,到让智能 Agent 自动识别并调用,我们可以看到——AI Agent 已不再只是一个辅助工具,而是 LabVIEW 用户的智能助手与创新引擎。

未来,仪酷智能 Agent 还将持续拓展更多模型适配、自动化能力与多智能体协作场景,助力 LabVIEW 用户在智能研发、测试与生产领域实现真正的“语言即开发”。

💡 特别提示: 我们将于 11 月开启 LabVIEW 代码生成内测申请!
感兴趣的朋友可以 加入仪酷智能交流群 664108337,第一时间体验 AI 自动生成 VI 代码的创新功能,与工程师团队一起共创智能未来。


更多内容可查看:

如果文章对你有帮助,欢迎✌关注、👍点赞、✌收藏、👍订阅专栏

推荐阅读

【YOLOv5】LabVIEW+TensorRT的yolov5部署实战(含源码))
【YOLOv5】手把手教你使用LabVIEW ONNX Runtime部署 TensorRT加速,实现YOLOv5实时物体识别(含源码)
【YOLOv8】实战一:手把手教你使用YOLOv8实现实时目标检测
【YOLOv8】实战二:YOLOv8 OpenVINO2022版 windows部署实战
【YOLOv8】实战三:基于LabVIEW TensorRT部署YOLOv8
【YOLOv9】实战一:在 Windows 上使用LabVIEW OpenVINO工具包部署YOLOv9实现实时目标检测(含源码)
【YOLOv9】实战二:手把手教你使用TensorRT实现YOLOv9实时目标检测(含源码)
👇技术交流 · 一起学习 · 咨询分享,请联系👇

### Qwen-Agent 智能体应用开发实战教程 Qwen-Agent 是一个专为 AI Agent 应用开发设计的框架,基于通义千问(Qwen)模型,提供了一套完整的解决方案,旨在让开发者能够更加高效、便捷地构建功能丰富、性能优越的智能体应用。以下是 Qwen-Agent 智能体应用开发的实战教程,帮助你快速上手掌握其核心功能。 #### 1. 环境准备 在开始开发之前,确保你的开发环境已经准备好。Qwen-Agent 支持多种开发环境,包括本地开发和云端部署。 - **安装 Python**:Qwen-Agent 基于 Python 开发,因此需要安装 Python 3.8 或更高版本。 - **安装依赖库**:使用 `pip` 安装必要的依赖库,例如 `transformers`、`torch` 等。 - **获取 Qwen-Agent**:你可以通过访问 Qwen-Agent 的 GitHub 仓库来获取源代码和文档。[^1] ```bash git clone https://github.com/Qwen/Qwen-Agent.git cd Qwen-Agent pip install -r requirements.txt ``` #### 2. 配置 Qwen-Agent Qwen-Agent 提供了丰富的配置选项,允许你根据具体需求进行定制。你可以通过修改配置文件来调整模型参数、输入输出格式等。 - **模型选择**:Qwen-Agent 支持多种预训练模型,你可以根据应用场景选择合适的模型。例如,如果你需要处理复杂的自然语言任务,可以选择更大规模的模型;如果对性能有较高要求,可以选择轻量级模型。 - **输入输出格式**:Qwen-Agent 允许你自定义输入输出格式,以便更好地适配你的应用场景。例如,你可以设置输入为 JSON 格式,输出为文本格式。[^2] #### 3. 开发第一个智能体应用 Qwen-Agent 提供了丰富的 API 和工具,帮助你快速构建智能体应用。以下是一个简单的示例,展示如何使用 Qwen-Agent 开发一个基本的智能体应用。 ##### 示例:创建一个简单的问答智能1. **定义智能体逻辑**:你可以通过编写 Python 代码来定义智能体的行为。例如,以下代码展示了如何创建一个简单的问答智能体。 ```python from qwen_agent import Agent # 初始化智能agent = Agent(model_name='Qwen-7B') # 定义智能体的响应逻辑 def answer_question(question): response = agent.generate_response(question) return response # 测试智能体 question = "什么是人工智能?" answer = answer_question(question) print(f"问题: {question}") print(f"答案: {answer}") ``` 2. **运行智能体**:将上述代码保存为 `qa_agent.py`,然后运行它。 ```bash python qa_agent.py ``` 3. **优化智能体**:你可以通过调整模型参数、增加训练数据等方式来优化智能体的性能。例如,如果你希望智能体能够更好地理解特定领域的术语,可以为其提供相关的训练数据。 #### 4. 部署与测试 Qwen-Agent 支持多种部署方式,包括本地部署和云端部署。你可以根据实际需求选择合适的部署方式。 - **本地部署**:如果你希望在本地环境中运行智能体,可以直接在本地服务器上部署 Qwen-Agent。确保你的服务器具有足够的计算资源(如 GPU)以支持模型推理。 - **云端部署**:Qwen-Agent 也支持在云平台上部署,例如阿里云、AWS 等。你可以使用 Docker 容器化技术来简化部署过程。 ##### 示例:使用 Docker 部署智能1. **创建 Dockerfile**:编写一个 Dockerfile,用于构建智能体的镜像。 ```Dockerfile FROM python:3.8-slim WORKDIR /app COPY requirements.txt . RUN pip install -r requirements.txt COPY . . CMD ["python", "qa_agent.py"] ``` 2. **构建镜像**:使用 Docker 构建镜像。 ```bash docker build -t qwen-agent-qa . ``` 3. **运行容器**:启动容器运行智能体。 ```bash docker run -d -p 8000:8000 qwen-agent-qa ``` 4. **测试部署**:你可以通过访问本地或云端的 API 接口来测试智能体的功能。例如,使用 `curl` 命令发送请求。 ```bash curl -X POST http://localhost:8000/answer -H "Content-Type: application/json" -d '{"question": "什么是人工智能?"}' ``` #### 5. 高级功能与优化 Qwen-Agent 不仅支持基础的智能体开发,还提供了一些高级功能,帮助你进一步提升智能体的性能和功能。 - **多模态支持**:Qwen-Agent 支持多模态输入输出,允许你处理图像、音频等多种类型的数据。例如,你可以开发一个能够理解图像生成描述的智能体。 - **分布式训练**:对于大规模模型,Qwen-Agent 提供了分布式训练的支持,帮助你加速模型训练过程。 - **自定义插件**:Qwen-Agent 支持自定义插件,允许你扩展智能体的功能。例如,你可以开发一个插件来集成外部数据库或 API。 ##### 示例:开发多模态智能1. **安装多模态依赖**:确保你已经安装了支持多模态处理的依赖库,例如 `Pillow` 用于图像处理。 ```bash pip install pillow ``` 2. **编写多模态智能体代码**:以下代码展示了如何创建一个能够处理图像生成描述的智能体。 ```python from qwen_agent import MultiModalAgent from PIL import Image # 初始化多模态智能agent = MultiModalAgent(model_name='Qwen-VL') # 定义智能体的响应逻辑 def describe_image(image_path): image = Image.open(image_path) description = agent.generate_description(image) return description # 测试智能体 image_path = "example.jpg" description = describe_image(image_path) print(f"图像描述: {description}") ``` 3. **运行智能体**:将上述代码保存为 `multi_modal_agent.py`,然后运行它。 ```bash python multi_modal_agent.py ``` #### 6. 社区与支持 Qwen-Agent 拥有一个活跃的社区,开发者可以在社区中交流经验、解决问题。你可以通过以下方式参与社区: - **GitHub 仓库**:访问 Qwen-Agent 的 GitHub 仓库,查看最新的代码和文档。 - **论坛与讨论组**:加入 Qwen-Agent 的论坛或讨论组,与其他开发者交流经验。 - **官方文档**:阅读 Qwen-Agent 的官方文档,了解更多的开发技巧和最佳实践。 --- ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

virobotics

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值