- 博客(53)
- 收藏
- 关注
原创 英伟达体系内关于 DGX Spark 的讨论观点整理
它最大支持 200B(FP4),当然200B 大多数用户我觉得也用不上,在 30-120B 的范畴很适合个人开发者和终端用户用,又轻又小、能随身携带、功耗也很低,所有的产品特性都是围绕个人开发者、以及有私有化AI助手的终端用户来用。DGX Spark只是提供了一个新的选择,萝卜白菜各有所爱,总有想要的那一款。客户如果是有比较多的并发需求,比如大于 5 个以上的并发,那我会建议考虑工作站或者服务器,同样 128GB 以上的显存,单台能提供 10-50 左右的并发量,成本可能也可以控制在 20 万以内。
2025-11-06 15:58:54
522
原创 在 DGX Spark 上使用 Ollama 打开 WebUI
本期我们将展示如何在 DGX Spark 设备上部署集成 Ollama 服务器的 Open WebUI,然后通过本地浏览器访问 Web 界面,同时模型在 DGX Spark 上运行。应用数据会存储在 open-webui 卷中,模型数据存储在 open-webui-ollama 卷中。如果看到权限被拒绝错误(例如尝试连接到 Docker 守护程序套接字时出现权限被拒绝的错误),就把用户添加到 docker 组,这样就不需要使用 sudo 运行命令。这将启动 Open WebUI 容器,我们可以。
2025-11-05 09:56:20
370
原创 DGX Spark 双机互连实测 Qwen3-235B 模型
前段时间我们使用单台 DGX Spark 测试了模型性能。今天,我们通过一根 200 Gbps 带宽的 QSFP 线缆,看看性能如何。整体测试下来,单用户生成速度为,但预填充速度还不错,单用户可达。
2025-10-31 11:32:56
454
原创 DGX Spark 实战解析:模型选择与效率优化全指南
自 DGX Spark 发布以来,这段探索之路挑战与收获并存。在成功完成软件移植的攻坚后,我们决定将这段时期的实战经验系统梳理,转化为一份关于模型选择与性能优化的实用指引,希望能助力更多团队高效利用 DGX Spark。
2025-10-31 10:44:21
504
原创 DGX Spark+ComfyUI 安装使用一步到位!
上期我们讲解了如何在该平台部署 Isaac Sim,本期我们将着手搭建本地 ComfyUI 工作流。无需上云,在本地即可完成所有图像的编辑和生成。预期输出应显示 Python 3.8+、可用的 pip、CUDA 工具包和 GPU 检测。安装 ComfyUI 运行所需的 Python 包。这一步会安装好所有必要的依赖项,包括。我们使用 DGX Spark 进行了 ComfyUI 的文生图测试,分辨率。启动 ComfyUI 网络服务器并启用网络访问。响应,表明 Web 服务器正在运行。的设备的 IP 地址。
2025-10-29 13:48:16
386
原创 DGX Spark 上部署 Isaac Sim 全流程
在过程中可能会看起来像安装失败,如果看到一个空白的窗口请继续等待。上期介绍了在 DGX Spark 上部署 AI 助手,本期我们将讲解如何在该平台部署 Isaac Sim。开发者不仅可以在桌面端开展机器人开发,还能将项目携带至边缘端场景,进行实地测试与调试。对于 Linux,从命令行运行,./post_install.sh然后运行./isaac-sim.selector.sh。命令窗口将打开并运行脚本。这是 Isaac Sim 内置的资产,我们可以在屏幕的左侧找到播放按钮,使机械臂进行一个简短的模拟运动。
2025-10-29 12:13:19
467
原创 DGX Spark 成功搭载首批企业知识库应用,可随身携带的 AI 助手
该智能体依托 Qwen3 基础大模型研发构建,且内置 Qwen VL 视觉模型能力,使 DGX Spark 能够解析图像信息,以自然语言与用户交流图片内容,回答问题并执行逻辑推理,结合其。一体化多模态交互,集成视觉、语音与信息展示能力于统一的交互界面中,用户可在与形象自然互动的过程中,同步完成聆听讲解、观看图像等内容交互,实现高效整合的沟通流程。具备逼真的面部表情、口型、眼神及肢体动作,消除传统纯文本或语音交互的机械感,使交流更自然、更亲切。这不仅仅是简单的动画角色,而是集成了多种技术的拟人化交互界面。
2025-10-23 10:16:56
263
原创 NVIDIA DGX Spark 实测首发!桌面机运行 GPT 原生模型的最佳选择来了!
后续我们还会有 NVIDIA NIM 测试、2台 DGX Spark 互连实测以及多模态、文生图测试,关注赞奇,敬请期待!模型进行了测试,让我们来看看它的性能表现。,赶紧让技术的小伙伴对。
2025-10-21 10:37:59
226
原创 NVIDIA DGX Spark 即将到货!一篇文章为您解答所有疑问
DGX Spark 系统可以采用独立配置,直接连接显示器、键盘和鼠标设备,也可以以无头模式(headless)部署,作为网络连接计算设备,不直接连接显示器、鼠标或键盘。综上所述,NVIDIA DGX Spark 的统一内存,轻便的尺寸,优秀的 NVIDIA 软件栈生态以及可以直接在边缘端进行应用,极大地拓宽了产品本身的应用场景。的正方形小盒子,由下图对比可以看出 DGX Spark 是一个非常方便携带的迷你 AI 计算机,无论是在家、学校还是公司来回携带都很便携,出差随身携带更是不在话下。
2025-10-16 14:23:31
906
原创 上影昊浦 X 赞奇:AI+影视实际落地案例,打造智能影视新生态
上影昊浦社区建设涉及上海科技影都 AI 创制生态中心、上影制作一站式服务平台、高科技影棚群、数字后期制作板块、青年人才公寓及社区配套。赞奇科技作为上影昊浦合作伙伴之一,在等方面展开合作,共同推动了包括等多个核心项目落地。上影昊浦智慧产业社区实拍图。
2025-09-17 11:08:13
996
原创 NVIDIA® Jetson Thor™ 开启订购!
NVIDIA® Jetson Thor™ 开启订购!* 这些规格是初步的,可能会发生变化。*图片来源于NVIDIA。*图片来源于NVIDIA。*图片来源于NVIDIA。*图片来源于NVIDIA。
2025-08-27 16:35:50
327
原创 NVIDIA 宣布推出全新 Omniverse 库及 Cosmos 物理 AI 模型
这些库和模型由全新 NVIDIA RTX PRO™ 服务器和 NVIDIA DGX™ Cloud 提供支持,可帮助开发者在任何地方开发物理精确的数字孪生,在仿真中捕捉和重建现实世界,生成用于训练物理 AI 模型的合成数据,并构建理解物理世界的 AI 智能体。NVIDIA Cosmos Reason 是一款面向物理 AI 和机器人开发的全新开源、可定制的 70 亿参数推理 VLM,可让机器人和视觉 AI 智能体像人类一样推理,利用先验知识、物理理解和常识,理解现实世界并付诸行动。
2025-08-27 16:24:58
1074
原创 H20 性能表现之 gpt-oss-120b
这个性能表现虽然看上去不大好,但考虑只使用了一张卡,所以还是可圈可点的,我们只要把并行开几个实例就可以解决并发的问题。,虽然风头被隔壁家谷歌的 Genie3 给盖了,但好在模型确实能打,以120B的参数硬刚200B以上的模型,而且还是。的时延了,要知道我这个测试案例的输入也就才4K的上下文。值得表扬的是模型非常小,一张卡就足够完成推理,所以这次的测试我只使用了。,时延方面则表现平平。不过,随着并发数的增加,吞吐率下降明显。,是平民都能部署的大大模型了,让我们来看看它在H20上的性能表现吧。
2025-08-27 16:24:13
521
原创 H20 性能表现之 Kimi-K2
今天,给大家分享 Kimi-K2 的表现,这可是一个1T大小的模型,说人话就是有1万亿个参数,拿给所有地球人平分,人均也有150个,是迄今为止,我测试过的最大的模型。,时延也仅0.18秒,不算差,但是,注意,随着并发用户的增加,时延上升明显,当并发用户达到。时,时延已经高达22秒,几乎是 DeepSeek V3 的两倍,而吞吐率也仅有。看到如上的数据,不说大家也猜到了,知识库应用的性能应该更差。如欲了解上述的几个大模型的性能,请参考如下文章。时,时延也达到了10秒,而此时的吞吐率仅有。
2025-08-27 16:23:27
252
原创 H20 性能表现之 GLM-4.5
我也抢鲜体验了一下,先不说比不比得上 o3,至少对比 DeepSeek R1(以下称671B)以及 Qwen3-Coder (以下称480B),已略有胜算。,这个性能表现还是颇有亮点的,特别是在多用户代码生成场景上。同时,从能力上来说,GLM-4.5 是目前数一数二的开源大模型了,所以部署到H20上应该不亏。通义千问前脚刚发布完 Qwen3-Coder-480B,智谱马上有了回应,不仅发布了新的。,今天,再次奉上 GLM-4.5 在 H20 上的性能表现。,与480B非常接近,并且是671B的。
2025-08-27 16:22:30
342
原创 H20 性能表现之 Qwen3-235B
来说,即使是压力最大的知识库应用或智能体应用,能达到50个并发用户的同时,保持较好的用户体验,应该说性价比远超 DeepSeek V3 了。顾名思义,235B总参数达到235B,同样,只能在H20或A100这样的机器上才能运行。,这也是阿里这阵子发布的杆把子模型了,其 benchmark 表现超过了 DeepSeek 及 Kimi K2。(以下称480B),今天,我为大家继续带来新的评测,这次,介绍的是。虽然235B的激活集也达到22B的规模,但其吞吐率还是不错的。,输入128,输出2K的表现,如下图。
2025-08-27 16:21:45
703
原创 H20 性能表现之 Qwen3-Coder-480B
由上可知,Qwen-Coder-480B 在H20上的表现强劲,其 throughput 远超之前我们测试过的 DeepSeek V3 671B,即使是100个并发用户,其平均每用户吞吐率也有22 token/s,约为 DeepSeek V3 671B 的两倍。总体而言,Qwen3-Coder-480B 的性能表现还是令人颇为满意的,要知道这个模型的。模型甫经发布,就收获粉丝无数,但这模型的大小也极为感人,达到了900百多G的水平,也只有。,比之DeepSeek V3的37B不遑多让,但性能表现是其。
2025-08-27 16:20:44
384
原创 本地部署 Dify,构建智能内容生成工作流
同时在上述图片中这个界面,我们可以更改使用的模型,并调整相应的参数,去满足不同用户的定制化需求。提示词生成好后,下一步就是投进 Flux.1 模型中进行文生图,这一步主要就是。,将图片内容详细解析为一段文字。由于用户一般输入的是不易被 AI 理解的语句,所以此步骤制作了一个。通过此模块将解析后的文字生成一段音频,同时。,男女声皆有,语音生成质量优秀,适用于。中,为客户提供安全可控、即插即用的。在这个Dify工作流中,主要由。,对图片内容进行更细致的解读。个重要部分组成,如下图所示。它可以根据用户的需求,
2025-08-06 14:43:48
400
原创 COZE 开源,新一代 AI Agent 本地部署一条龙
7月26日,扣子(Coze)宣布开源其核心产品:零代码开发平台CozeStudio和调试工具CozeLoop。
2025-07-30 16:01:09
1362
原创 NVIDIA Omniverse 启动器被移除后开发者需要了解的信息
NVIDIA 将于 10 月 1 日弃用 Omniverse Launcher。
2025-07-24 14:24:20
859
原创 基于 NVIDIA RTX™ 5880 Ada 构建交互式流体仿真的数字孪生
基于 NVIDIA RTX™ 5880 Ada 构建交互式流体仿真的数字孪生
2025-07-15 14:44:46
336
原创 联想 X 赞奇 | 共建 AI 生态,携手发布软硬协同的AIKnow智能体工作站
未来,赞奇与联想将持续深化合作,针对制造、医疗、能源等行业推出垂直场景解决方案,助力企业 AI 应用实际落地。
2025-05-13 11:45:43
206
原创 Qwen3 震撼发布,赞奇深度测评倒计时!
赞奇也立刻着手使用8卡 H20 141GB 进行本地化部署,预计在五一节后发布Qwen3的并发测试报告,看看其实际应用体验究竟如何。关注知乎并私信即可优先获取测试报告!
2025-04-30 10:34:27
252
原创 锚定效能:能源行业可视化应用场景与 GPU 适配
能源产业智能化升级在加速,工程设计等应用场景中的工具、技术路径等发生了一些改变,同时 GPU 也在更新迭代,从过去大家所熟知的 NVIDIA Turing™ 架构、NVIDIA RTX™ Ampere 架构,已进阶到 NVIDIA Ada Lovelace 架构,算力已不可同日而语。鉴于很多朋友在选型新架构 GPU 的时候经常有疑惑,我们这里给大家整理了工程设计场景中的一些 GPU 适配建议。
2025-04-18 14:13:59
855
原创 交通类 AI 项目预演阶段,本地化部署的一些新思路
交通行业的 AI 应用场景目前主要涵盖交通公共服务体验优化、汽车等交通工具的智能化升级和物流的智能化转型。大部分应用场景仍在项目实验阶段。此阶段需要有效地平衡项目需求、成本和开发效率。
2025-04-18 11:02:51
842
原创 多元场景需求下,游戏开发的 GPU 选型攻略
游戏市场正在不断开发出新的场景需求,游戏开发团队在传统业务之外也都在打磨新的工作流,来应对高质量的游戏制作任务和短平快的 AI 游戏。这不可避免地涉及到生产力工具 GPU 的升级,而团队都希望“花小钱,办大事”,用一套高性价比的方案支撑起多元的应用场景和不同的工作流。
2025-04-17 16:05:09
1452
原创 NVIDIA RTX™ GPU 低成本启动零售 AI 场景开发
零售行业正在探索应用 AI 升级客户体验,同时优化内部流程。面对多重应用场景以及成本优化压力,团队可采用成本相对可控的方案,来应对多重场景的前期项目预演和落地,避免短期内大规模投入造成的资源浪费。
2025-04-16 16:49:18
1259
原创 【赞奇实测】加速 Siemens NX 工作流:NVIDIA RTX™ GPU 性能表现实测
近期评测组对 NVIDIA RTX™ GPU 在 Siemens NX 中的性能进行了详细的测试,本次测试共选用 6 张 GPU,测试每张 GPU 在 Siemens NX 软件中导入模型速度、有限元分析时长、渲染视口流畅度等应用环节的性能表现。
2025-04-11 11:28:38
307
原创 【赞奇实测】NVIDIA RTX™ GPU 在 Houdini 中的渲染表现实测
近期我们的技术小伙伴对 NVIDIA RTX™ GPU 在 Houdini 中的渲染表现进行了详细的测试,本次测试共选用 6 张 GPU,分别测试每张 GPU 在大、中、小三个场景中的性能表现,并将同级别的 NVIDIA Ada Lovelace 架构 GPU 与 NVIDIA Ampere 架构 GPU 进行对比分析,为大家更直观地呈现 GPU 性能提升。
2025-04-10 17:58:02
860
原创 【新品发售】NVIDIA 发布全球最小个人 AI 超级计算机 DGX Spark
GTC 2025 大会上,NVIDIA 正式推出了搭载 NVIDIA Grace Blackwell 平台的个人 AI 超级计算机——DGX Spark。
2025-03-21 11:36:40
548
原创 8卡 5880 Ada 并发测试 Deepseek 32B/70B
8卡 5880 Ada 能够很好的支持 32B FP8 和 FP16,不过 FP8 相较 FP16 提升较小,因此建议部署 FP16。8卡 5880 Ada 能够支持部署 70B FP16,并且在对话问答场景中表现优秀,在模拟RAG场景中,并发数过高会有算力压力。
2025-03-21 11:35:49
1711
原创 性能直逼 DeepSeek R1 671B,QwQ-32B+4*RTX 5000 Ada 并发测试
回答问题的逻辑性明显要强于R1 32B 蒸馏版,跟671B满血版对比基本接近,期待 DeepSeek 官方下一个版本的更新。
2025-03-21 11:33:41
394
原创 DeepSeek 满血版 8卡 H20 141GB 并发压力测试,体验极致性能!
近期我们针对 DeepSeek 满血版 671B 进行了并发性能的测试,搭载的是 8张 NVIDIA H20(单卡显存141GB)的服务器,我们来看看测试结果。
2025-03-06 10:02:12
6047
2
原创 【赞奇实测】4090涨疯了,32GB 5000 Ada 跑 DeepSeek 32B FP16 并发测试
DeepSeek R1 32B的企业私有化部署场景,推荐 4卡 RTX 5000 Ada 机型,性能和成本效益方面表现出色,满足企业级应用的高并发需求。
2025-02-19 16:34:20
2365
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅