自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 【新品发售】NVIDIA 发布全球最小个人 AI 超级计算机 DGX Spark

GTC 2025 大会上,NVIDIA 正式推出了搭载 NVIDIA Grace Blackwell 平台的个人 AI 超级计算机——DGX Spark。

2025-03-21 11:36:40 327

原创 8卡 5880 Ada 并发测试 Deepseek 32B/70B

8卡 5880 Ada 能够很好的支持 32B FP8 和 FP16,不过 FP8 相较 FP16 提升较小,因此建议部署 FP16。8卡 5880 Ada 能够支持部署 70B FP16,并且在对话问答场景中表现优秀,在模拟RAG场景中,并发数过高会有算力压力。

2025-03-21 11:35:49 377

原创 性能直逼 DeepSeek R1 671B,QwQ-32B+4*RTX 5000 Ada 并发测试

回答问题的逻辑性明显要强于R1 32B 蒸馏版,跟671B满血版对比基本接近,期待 DeepSeek 官方下一个版本的更新。

2025-03-21 11:33:41 219

原创 DeepSeek 满血版 8卡 H20 141GB 并发压力测试,体验极致性能!

近期我们针对 DeepSeek 满血版 671B 进行了并发性能的测试,搭载的是 8张 NVIDIA H20(单卡显存141GB)的服务器,我们来看看测试结果。

2025-03-06 10:02:12 2203

原创 4090价格暴涨?32GB 显存 5000 Ada 才是DeepSeek 一体机最佳拍档

全力支持企业低成本快速部署 DeepSeek

2025-03-05 10:42:11 170

原创 DeepSeek+开源 RAG 框架 RAGFlow,5000 Ada 部署测试!

测试链接可后台私信获取,还可了解更多赞奇一体机产品。

2025-02-26 10:14:38 164

原创 【赞奇实测】4090涨疯了,32GB 5000 Ada 跑 DeepSeek 32B FP16 并发测试

DeepSeek R1 32B的企业私有化部署场景,推荐 4卡 RTX 5000 Ada 机型,性能和成本效益方面表现出色,满足企业级应用的高并发需求。

2025-02-19 16:34:20 1080 1

原创 【赞奇实测】DeepSeek 不同 GPU 性能测试一期(4090 VS 5000 Ada VS 5880 Ada)

32B DeepSeek, 选择5000 Ada 4卡机。满血版选择H20 141GB版本。

2025-02-13 17:35:46 1285

原创 经济高效地探索 AI:制造业中的 GPU 计算解决方案

我们将介绍制造业常见的AI应用场景中,搭配使用NVIDIARTX™GPU的一些经济适用方案。

2025-01-20 10:04:35 739

原创 加速 CATIA 工作流:NVIDIA RTX™ GPU 选型指南

近期评测组测试了NVIDIARTX™GPU在CAD软件中的应用性能表现,尤其针对CATIA这款CAD软件产品,考察不同复杂度模型在载入、渲染、装配以及仿真操作中的应用性能,通过应用效果对比分析,为制造企业的GPU选型提供专业数据支撑和选型依据。

2025-01-17 17:24:56 907

原创 加速 Solidworks 工作流:NVIDIA RTX™ GPU 选型指南

通过应用效果对比分析,为制造企业的 GPU 选型提供专业数据支撑和选型依据。

2025-01-09 11:59:10 1735

原创 NVIDIA RTX Ada 显卡超高分辨率渲染时长测试

测试 NVIDIA RTX™ 5000Ada、NVIDIA RTX™ 5880 Ada、NVIDIA RTX™ A6000 三款专业显卡在8K、16K超高分辨率下的渲染表现。

2025-01-08 12:10:18 871

原创 超全测试:32GB专业显卡 vs 最强消费级显卡

高 Batch size 场景超全测试!

2025-01-03 10:37:50 605

原创 告别「文生图」显存焦虑

Flux 模型今年发布之后,带来了文生图的一次升级,图像生成的质量效果飞跃提升。但 Flux 对显存提出了要求。Flux.1 拥有高达12B的训练参数。FLUX.1 [dev] 和 FLUX.1 [schnell]两个版本官方原配模型大小为 23.8GB,需要至少 24GB 的显卡才能顺利运行。不过得益于FP8的支持,经过优化之后模型体积可缩减至 11.9GB,不过跑起来也至少需要 16GB 显存的显卡。无论是模型训练,还是生图过程,batch size 等参数的调整都会直接影响显存要求。赞奇工程师团队近期

2024-10-18 11:59:46 5583

原创 搭建一个 AI 问答机器人,需要几步?

搭建一个企业内部AI 问答机器人、知识库的场景,我们可以选择大厂的云服务,这相对于大多数用户来说,是最省事的方案。但很多企业可能会有一些私有化的数据,或者受限于企业内部的安全性要求,只能走模型私有化部署的方式。很多人想到模型私有化部署,会以为要数据中心的多台服务器来做,其实不然。办公室里搭建 AI 工作站,已经可以完美地支持企业内部知识库和一些POC场景的需求,比如进行量化的 70B 模型的训练和推理工作。所以在办公室环境下,同样可以搭建一个 AI 问答机器人。

2024-10-18 11:48:30 1023

原创 生成式 AI 模型训练实践 | 使⽤ NVIDIA NeMo 框架实现 TTS 的训练和推理应用

使⽤ NVIDIA NeMo 框架实现 TTS 的训练和推理应用。

2024-08-22 17:47:00 922 1

原创 AI 工作站体验季正式开启!顶尖工作站挑战大模型,免费实现 AI 自由!

独享免费顶尖 AI 工作站计算资源,挑战 AI 大模型!

2024-08-22 11:47:52 423

原创 NVIDIA Nemo——用于构建和部署生成式 AI 模型的端到端云原生框架

为用户使用生成式 AI 提供了一种既方便、又经济的方法。

2024-07-08 11:40:11 917

原创 NVIDIA AI Enterprise 科普 | Triton 推理服务器 & TensorRT-LLM 两大组件介绍及实践

模型库中的每个模型都必须包含⼀个模型配置,该配置提供有关模型的必需和可选信息。)配置,使⽤当前最新的NVIDIA官⽅提供的镜像tritonserver:23.12-trtllm-python-py3,此版本镜像部分配置如下,⼏乎包含了运⾏TensorRT-LLM的所有环境,详情请参考此链接:(TensorRT-LLM 包含用于创建执行这些 TensorRT 引擎的 Python 和 C++ 运行时的组件,还包括与 NVIDIA Triton 推理服务器集成的后端,用于提供大模型服务的生产级系统。

2024-06-20 17:25:28 2445

转载 NVIDIA RTX 5000 Ada AI 工作站运行当红炸子鸡大模型 Llama3

5000 Ada 跑大模型 Llama3,效果实测!

2024-05-16 09:45:00 366

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除