
DeepSeek
文章平均质量分 70
gzgenius
这个作者很懒,什么都没留下…
展开
-
Deepseek V3、豆包、百度秒哒在AI人工智能无代码编程方面的差异分析?
--以上分析基于当前技术进展与用户反馈,实际应用中需结合具体需求选择工具。原创 2025-03-26 17:30:38 · 1322 阅读 · 0 评论 -
DeepSeek V3 和 R1 在架构、技术性能、优缺点和部署方面差异?
选择模型时,需根据具体需求和硬件资源决定。V3适合通用语言处理任务,而R1适合复杂逻辑推理场景。原创 2025-03-26 09:40:14 · 562 阅读 · 0 评论 -
有什么适合IT项目经理使用的AI生成流程图、UML图、泳道图等工具
操作步骤:向DeepSeek描述需求→获取Mermaid代码→在ProcessOn导入→生成并调整。使用DeepSeek生成Mermaid代码,导入ProcessOn一键生成图表。通过对话式交互,用自然语言描述需求,AI自动生成PlantUML代码并渲染图表。支持图表:流程图、时序图、泳道图、类图、ER图(通过Mermaid语法)。操作步骤:访问官网→点击“生成流程图”→输入描述→AI生成→调整导出。支持图表:UML图、系统架构图、流程图(基于PlantUML)。持迭代优化,例如调整系统设计中的组件关系。原创 2025-03-17 17:38:21 · 472 阅读 · 0 评论 -
独立部署DeepSeek 大语言模型(如 DeepSeek Coder、DeepSeek LLM)可以采用什么框架?
提供了丰富的预训练模型接口,对于 DeepSeek 模型,能通过简单的几行代码实现加载和推理。例如,你可以轻松指定模型名称,如 “deepseek-ai/deepseek-coder-6.7b-base”,就可以快速加载模型。:采用了先进的推理优化技术,如 PagedAttention,能够显著提高模型的推理速度,降低延迟。这些框架各有优缺点,你可以根据自己的具体需求,如性能要求、易用性、成本等因素,选择合适的框架来独立部署 DeepSeek 模型。无需编写复杂的代码,降低了部署的门槛。原创 2025-03-17 11:18:22 · 523 阅读 · 0 评论 -
有什么GPU卡可绕过CUDA依赖并能独立部署DeepSeek?
以下是一些可以绕过CUDA依赖并能独立部署DeepSeek的GPU卡:原创 2025-03-17 11:10:13 · 325 阅读 · 0 评论 -
(七)使用X99主板搭配双XEON E5-2660 V4或同系列CPU+NVIDIA P106-100部署Deepseek的可行性
(新装机的话,二手CPU,二手内存,一手SSD,一手电源,开放式机箱,一手散热器、需自行解决散热风扇问题),如果在原有已经有是x99架构的双CPU朋友,节省掉SSD和加少许内存情况下也可升级改造。:如Windows 7、Ubuntu 16.04等,对CUDA 11.0的支持可能有限,可能需要降级CUDA版本。或更高版本:支持NVIDIA P106-100,但需要安装适当的驱动程序和CUDA toolkit。:检查操作系统版本是否支持当前的NVIDIA驱动,可能需要调整操作系统版本或使用旧版本驱动。原创 2025-03-13 18:13:29 · 1028 阅读 · 0 评论 -
(六)与英伟达 V100 对标的,但又便宜且好用的运算卡对比表及部署Deepseek的对标情况。
需要稳定运行 Deepseek,建议选择 P106-100,但是需要注意主板、CPU及操作系统对驱动程序、工具集的支持,这点需要十分谨慎。如果需要利用最新的架构优势,如A100的Ampere架构,可能需要升级,但P106-100在性能和价格之间提供了不错的平衡。:P106-100的性能接近V100,提供4000+ Tokens/s,适合中等规模的模型部署。总结来说,P106-100是可以部署Deepseek的,并且是预算有限用户的一个合适选择。:基于 Ampere 架构,价格非常便宜,适合入门级用户。原创 2025-03-13 18:04:24 · 712 阅读 · 0 评论 -
(五)基于A100、V100和K80三种GPU部署Deepseek的最高版本的详细信息
基于A100、V100和K80三种GPU部署Deepseek的最高版本的详细信息原创 2025-03-13 17:57:58 · 364 阅读 · 0 评论 -
(四)英伟达K80、V100和A100三款GPU在Tokenss等关键指标及性能特征上的对比分析
Ampere架构第三代Tensor Core,支持TF32和稀疏计算,显存带宽(1555 GB/s)和容量(80GB)大幅提升,适用于超大规模模型(如GPT-3)。Volta架构引入第一代Tensor Core,支持FP16混合精度,显存带宽显著提升(900 GB/s),适合中等规模的模型训练和推理。A100的FP16性能是V100的2.5倍,K80因缺乏Tensor Core,FP32性能仅为A100的1/7027。在BERT模型训练中,A100性能是V100的6倍7,但V100仍能胜任多数企业级应用。原创 2025-03-13 17:56:26 · 1093 阅读 · 0 评论 -
(三)穷人技术部署方案:基于K80显卡的DeepSeek-Ollama部署
基于K80显卡的DeepSeek-Ollama部署原创 2025-03-13 17:54:13 · 1000 阅读 · 0 评论 -
元脑服务器可用于DeepSeek部署
2024年4月17日,于浪潮信息生态伙伴大会上,“元脑”品牌经历全面升级,涵盖所有计算产品,成为智算领域的核心品牌。浪潮信息依托元脑生态体系,与合作伙伴共同推进元脑服务器在金融、制造、智能制造、智慧城市等多个领域的应用,为各行各业提供高效且可靠的智能计算支持,助力企业以更低的成本探索大型模型的智能潜能,加速推动各行业的智能化转型。全新升级的内存故障智能预警修复技术MUPR,从单端预警升级为BIOS、BMC两级防护,可实现对内存UCE故障的精准预测和实时修复,能有效规避80%以上的内存UCE发生。原创 2025-02-20 11:01:10 · 579 阅读 · 0 评论 -
可用于部署 DeepSeek 的国产 GPU 计算卡
JM 系列与 DeepSeek-R1-Distill-Qwen-1.5B 和 DeepSeek-R1-Distill-Qwen-7B 模型完美融合,景宏系列全面适配 DeepSeek R1 全系列模型,覆盖从 1.5B 到 70B 参数规模。宣布与 Gitee AI 合作,完成了与 DeepSeek-R1 模型的适配工作,并已上线多个大模型服务,包括 1.5B、7B、14B 等版本。通过多台搭载芯瞳 GPU 的电脑组建集群,支持 DeepSeek V3 和全量 R1 模型,适用于大型企业。原创 2025-02-20 10:36:07 · 688 阅读 · 0 评论 -
目前有哪些国产GPU支持DeepSeek?国产GPU支持的DeepSeek模型的性能如何?DeepSeek模型与其他模型相比有什么优势?没有CUDA的GPU可以部署Deepseek
适配了DeepSeek-R1/V3 671B原生模型、DeepSeek-R1-Distill-Qwen-1.5B/7B/14B/32B、DeepSeek-R1-Distill-Llama-8B/70B,通过燧原AI加速卡实现高效计算。适合复杂任务处理和高精度场景,如长文档分析、多模态推理、科研计算等,在逻辑推理、代码生成等任务中达到与GPT-4、Claude-3.5-Sonnet相近的性能,甚至超越部分开源模型如Llama-3.1-405B。原创 2025-02-20 09:41:12 · 1838 阅读 · 0 评论