
GPU
文章平均质量分 76
gzgenius
这个作者很懒,什么都没留下…
展开
-
是否可以在 英伟达 Jetson Orin Nano 上部署 DeepSeek 模型?
总的来说,因为Jetson Orin Nano主要应用于轻量化边缘计算使用,如适合边缘设备、嵌入式 AI 应用(如机器人、无人机、智能摄像头)。而大规模模型训练和推理(如 DeepSeek 14B 或更高参数模型)则不适合,因此需根据不同的应用场景进行选择。:大模型(如 14B 或更高参数)需要更高的显存和算力,Jetson Orin Nano 可能难以流畅运行。:本地部署适合高隐私场景,但需确保符合数据安全法规(如 GDPR)。:1.5B 模型需约 4GB 显存,7B 模型需 8GB 以上。原创 2025-03-19 11:43:32 · 580 阅读 · 0 评论 -
英伟达PTX指令集与各CUDA版本的关系
虽然PTX指令集的官方文档是英文的,但通过查阅NVIDIA的CUDA工具包文档和相关资源,可以详细了解不同CUDA版本中PTX指令集的变化和新增功能。原创 2025-03-19 10:13:47 · 626 阅读 · 0 评论 -
P106-100、K80、H800、V100 四款显卡在架构、PTX指令集、算力、性能等方面的差异及优缺点对比:
Hopper架构的阉割版,保留第四代Tensor Core和FP8支持,但NVLink带宽和FP64性能受限。:K80的GDDR5显存带宽(240GB/s)远低于H800的HBM3(3.9TB/s),适合处理小数据集。:Volta架构首次引入Tensor Core,显存带宽高(900GB/s),适合大规模模型训练。:双GPU的Kepler架构,显存容量大但无现代AI加速单元,适合传统并行计算。:基于Pascal架构,定位为计算卡,通过魔改驱动实现游戏功能,显存带宽较低。原创 2025-03-18 09:48:43 · 1435 阅读 · 0 评论 -
有什么GPU卡可绕过CUDA依赖并能独立部署DeepSeek?
以下是一些可以绕过CUDA依赖并能独立部署DeepSeek的GPU卡:原创 2025-03-17 11:10:13 · 325 阅读 · 0 评论 -
可用于部署 DeepSeek 的国产 GPU 计算卡
JM 系列与 DeepSeek-R1-Distill-Qwen-1.5B 和 DeepSeek-R1-Distill-Qwen-7B 模型完美融合,景宏系列全面适配 DeepSeek R1 全系列模型,覆盖从 1.5B 到 70B 参数规模。宣布与 Gitee AI 合作,完成了与 DeepSeek-R1 模型的适配工作,并已上线多个大模型服务,包括 1.5B、7B、14B 等版本。通过多台搭载芯瞳 GPU 的电脑组建集群,支持 DeepSeek V3 和全量 R1 模型,适用于大型企业。原创 2025-02-20 10:36:07 · 688 阅读 · 0 评论 -
目前有哪些国产GPU支持DeepSeek?国产GPU支持的DeepSeek模型的性能如何?DeepSeek模型与其他模型相比有什么优势?没有CUDA的GPU可以部署Deepseek
适配了DeepSeek-R1/V3 671B原生模型、DeepSeek-R1-Distill-Qwen-1.5B/7B/14B/32B、DeepSeek-R1-Distill-Llama-8B/70B,通过燧原AI加速卡实现高效计算。适合复杂任务处理和高精度场景,如长文档分析、多模态推理、科研计算等,在逻辑推理、代码生成等任务中达到与GPT-4、Claude-3.5-Sonnet相近的性能,甚至超越部分开源模型如Llama-3.1-405B。原创 2025-02-20 09:41:12 · 1835 阅读 · 0 评论