
人工智能
文章平均质量分 96
黯玥
这个作者很懒,什么都没留下…
展开
-
从零开始之扣子智能音视频项目部署
扣子平台于2025年2月13日推出智能语音 OpenAPI,配合火山方舟提供的视觉理解模型,开发者可以在 Web、App、小程序、终端硬件上集成扣子智能语音和视频识别能力,使终端用户能够和扣子上的智能体进行实时音视频通话。这一新功能的推出增加了智能体开发的有趣性和方便性。原创 2025-03-18 15:21:31 · 1249 阅读 · 0 评论 -
从零开始之AI面试小程序
在如今人人皆可卷,万物皆可卷的社会中生活实属不易。本文将带领各位从零开始搭建并熟悉开发AI面试小程序,适合小白食用。程序还有些地方仍在完善,望海涵。自我介绍AI生成的工作流如下图所示。输入部分为JSON格式的字符串,大模型根据相关信息处理后生成自我介绍后输出。第二个节点用于处理输入的JSON格式的字符串,其代码内容如下。return ret进入【首页】后,点击【自我介绍】按钮即可进入自我介绍生成界面。如果未登录,会弹出登录的界面,如下图所示。可选择的登录方式为短信登录和微信登录短信登录。原创 2024-09-23 14:08:20 · 1632 阅读 · 3 评论 -
从零开始之AI视频制作篇
现在是2024年8月。虽然AI现在发展得很快,但离完全替代人类还是有部分的距离。AI作为提高效率的工具确实是不争的事实。本文将详细描述在这个时间节点上可达到的基于图片的AI视频制作的整个流程,适合小白食用。原创 2024-08-07 16:55:35 · 6522 阅读 · 0 评论 -
从零开始之Dify二次开发篇
Dify传送门。基于Docker Compose的Dify部署:Dify Docker Compose部署篇传送门。Dify 源码部署篇传送门。本文将详细描述基于Dify的二次开发流程,适合小白食用。原创 2024-06-24 17:26:59 · 34031 阅读 · 16 评论 -
51在InternStudio上卷Llama3
模型在运行时,占用的显存可大致分为三部分:模型参数本身占用的显存、KV Cache占用的显存,以及中间运算结果占用的显存。LMDeploy的KV Cache管理器可以通过设置–cache-max-entry-count参数,控制KV缓存占用剩余显存的最大比例。由于显存原因,我们直接来一波“极限”,把–cache-max-entry-count参数设置为0.01,约等于禁止KV Cache占用显存。量化工作结束后,新的HF模型被保存到Meta-Llama-3-8B-Instruct_4bit目录。原创 2024-05-05 13:08:00 · 732 阅读 · 0 评论 -
毕昇的初探之旅(一)
毕昇大模型框架二开的探索原创 2024-04-05 13:14:15 · 5264 阅读 · 0 评论 -
从零开始之TaskingAI部署篇
TaskingAI传送门。本系列文章从零开始探索TaskingAI的功能及搭建过程。本文的搭建流程是基于Docker Compose进行部署。原创 2024-03-19 08:28:21 · 1526 阅读 · 0 评论 -
从零开始之Dify源码部署篇
Dify传送门。本系列文章从零开始探索Dify的功能及搭建过程。本文的搭建流程是基于本地源码进行部署。Dify Docker Compose部署篇传送门。原创 2024-03-18 11:17:45 · 28745 阅读 · 27 评论 -
从零开始之Dify部署篇
Dify传送门。本系列文章从零开始探索Dify的功能及搭建过程。本文的搭建流程是基于Docker Compose进行部署。原创 2024-03-17 08:30:03 · 66694 阅读 · 49 评论