- 博客(20)
- 收藏
- 关注
原创 【新品发售】NVIDIA 发布全球最小个人 AI 超级计算机 DGX Spark
GTC 2025 大会上,NVIDIA 正式推出了搭载 NVIDIA Grace Blackwell 平台的个人 AI 超级计算机——DGX Spark。
2025-03-21 11:36:40
327
原创 8卡 5880 Ada 并发测试 Deepseek 32B/70B
8卡 5880 Ada 能够很好的支持 32B FP8 和 FP16,不过 FP8 相较 FP16 提升较小,因此建议部署 FP16。8卡 5880 Ada 能够支持部署 70B FP16,并且在对话问答场景中表现优秀,在模拟RAG场景中,并发数过高会有算力压力。
2025-03-21 11:35:49
377
原创 性能直逼 DeepSeek R1 671B,QwQ-32B+4*RTX 5000 Ada 并发测试
回答问题的逻辑性明显要强于R1 32B 蒸馏版,跟671B满血版对比基本接近,期待 DeepSeek 官方下一个版本的更新。
2025-03-21 11:33:41
219
原创 DeepSeek 满血版 8卡 H20 141GB 并发压力测试,体验极致性能!
近期我们针对 DeepSeek 满血版 671B 进行了并发性能的测试,搭载的是 8张 NVIDIA H20(单卡显存141GB)的服务器,我们来看看测试结果。
2025-03-06 10:02:12
2203
原创 【赞奇实测】4090涨疯了,32GB 5000 Ada 跑 DeepSeek 32B FP16 并发测试
DeepSeek R1 32B的企业私有化部署场景,推荐 4卡 RTX 5000 Ada 机型,性能和成本效益方面表现出色,满足企业级应用的高并发需求。
2025-02-19 16:34:20
1080
1
原创 【赞奇实测】DeepSeek 不同 GPU 性能测试一期(4090 VS 5000 Ada VS 5880 Ada)
32B DeepSeek, 选择5000 Ada 4卡机。满血版选择H20 141GB版本。
2025-02-13 17:35:46
1285
原创 经济高效地探索 AI:制造业中的 GPU 计算解决方案
我们将介绍制造业常见的AI应用场景中,搭配使用NVIDIARTX™GPU的一些经济适用方案。
2025-01-20 10:04:35
739
原创 加速 CATIA 工作流:NVIDIA RTX™ GPU 选型指南
近期评测组测试了NVIDIARTX™GPU在CAD软件中的应用性能表现,尤其针对CATIA这款CAD软件产品,考察不同复杂度模型在载入、渲染、装配以及仿真操作中的应用性能,通过应用效果对比分析,为制造企业的GPU选型提供专业数据支撑和选型依据。
2025-01-17 17:24:56
907
原创 加速 Solidworks 工作流:NVIDIA RTX™ GPU 选型指南
通过应用效果对比分析,为制造企业的 GPU 选型提供专业数据支撑和选型依据。
2025-01-09 11:59:10
1735
原创 NVIDIA RTX Ada 显卡超高分辨率渲染时长测试
测试 NVIDIA RTX™ 5000Ada、NVIDIA RTX™ 5880 Ada、NVIDIA RTX™ A6000 三款专业显卡在8K、16K超高分辨率下的渲染表现。
2025-01-08 12:10:18
871
原创 告别「文生图」显存焦虑
Flux 模型今年发布之后,带来了文生图的一次升级,图像生成的质量效果飞跃提升。但 Flux 对显存提出了要求。Flux.1 拥有高达12B的训练参数。FLUX.1 [dev] 和 FLUX.1 [schnell]两个版本官方原配模型大小为 23.8GB,需要至少 24GB 的显卡才能顺利运行。不过得益于FP8的支持,经过优化之后模型体积可缩减至 11.9GB,不过跑起来也至少需要 16GB 显存的显卡。无论是模型训练,还是生图过程,batch size 等参数的调整都会直接影响显存要求。赞奇工程师团队近期
2024-10-18 11:59:46
5583
原创 搭建一个 AI 问答机器人,需要几步?
搭建一个企业内部AI 问答机器人、知识库的场景,我们可以选择大厂的云服务,这相对于大多数用户来说,是最省事的方案。但很多企业可能会有一些私有化的数据,或者受限于企业内部的安全性要求,只能走模型私有化部署的方式。很多人想到模型私有化部署,会以为要数据中心的多台服务器来做,其实不然。办公室里搭建 AI 工作站,已经可以完美地支持企业内部知识库和一些POC场景的需求,比如进行量化的 70B 模型的训练和推理工作。所以在办公室环境下,同样可以搭建一个 AI 问答机器人。
2024-10-18 11:48:30
1023
原创 生成式 AI 模型训练实践 | 使⽤ NVIDIA NeMo 框架实现 TTS 的训练和推理应用
使⽤ NVIDIA NeMo 框架实现 TTS 的训练和推理应用。
2024-08-22 17:47:00
922
1
原创 NVIDIA AI Enterprise 科普 | Triton 推理服务器 & TensorRT-LLM 两大组件介绍及实践
模型库中的每个模型都必须包含⼀个模型配置,该配置提供有关模型的必需和可选信息。)配置,使⽤当前最新的NVIDIA官⽅提供的镜像tritonserver:23.12-trtllm-python-py3,此版本镜像部分配置如下,⼏乎包含了运⾏TensorRT-LLM的所有环境,详情请参考此链接:(TensorRT-LLM 包含用于创建执行这些 TensorRT 引擎的 Python 和 C++ 运行时的组件,还包括与 NVIDIA Triton 推理服务器集成的后端,用于提供大模型服务的生产级系统。
2024-06-20 17:25:28
2445
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人