
AI
文章平均质量分 75
gzgenius
这个作者很懒,什么都没留下…
展开
-
技术简报:百度秒哒AI无代码平台痛点与开发者困境
据工信部2023年Q4数据,个人网站备案通过率不足32%(企业备案率为89%),主因包括域名解析冲突、服务器资质不符等。强制公开发布门槛:最终应用必须绑定已备案空域名(无解析记录),个人开发者需独立完成工信部备案流程。域名需"未投入使用"状态备案 → 实际操作中需先购买域名+服务器并暂停解析,与个人开发者低成本试错需求冲突。推动建立开发者沙箱备案白名单机制(参考欧盟GDPR的"数据沙盒"监管沙盒模式)。建立"无代码开发合规性知识图谱",标注各平台部署红线(如附对比表格)。原创 2025-03-27 15:54:29 · 645 阅读 · 0 评论 -
Deepseek V3、豆包、百度秒哒在AI人工智能无代码编程方面的差异分析?
--以上分析基于当前技术进展与用户反馈,实际应用中需结合具体需求选择工具。原创 2025-03-26 17:30:38 · 1322 阅读 · 0 评论 -
DeepSeek V3 和 R1 在架构、技术性能、优缺点和部署方面差异?
选择模型时,需根据具体需求和硬件资源决定。V3适合通用语言处理任务,而R1适合复杂逻辑推理场景。原创 2025-03-26 09:40:14 · 562 阅读 · 0 评论 -
是否可以在 英伟达 Jetson Orin Nano 上部署 DeepSeek 模型?
总的来说,因为Jetson Orin Nano主要应用于轻量化边缘计算使用,如适合边缘设备、嵌入式 AI 应用(如机器人、无人机、智能摄像头)。而大规模模型训练和推理(如 DeepSeek 14B 或更高参数模型)则不适合,因此需根据不同的应用场景进行选择。:大模型(如 14B 或更高参数)需要更高的显存和算力,Jetson Orin Nano 可能难以流畅运行。:本地部署适合高隐私场景,但需确保符合数据安全法规(如 GDPR)。:1.5B 模型需约 4GB 显存,7B 模型需 8GB 以上。原创 2025-03-19 11:43:32 · 584 阅读 · 0 评论 -
英伟达PTX指令集与各CUDA版本的关系
虽然PTX指令集的官方文档是英文的,但通过查阅NVIDIA的CUDA工具包文档和相关资源,可以详细了解不同CUDA版本中PTX指令集的变化和新增功能。原创 2025-03-19 10:13:47 · 626 阅读 · 0 评论 -
P106-100、K80、H800、V100 四款显卡在架构、PTX指令集、算力、性能等方面的差异及优缺点对比:
Hopper架构的阉割版,保留第四代Tensor Core和FP8支持,但NVLink带宽和FP64性能受限。:K80的GDDR5显存带宽(240GB/s)远低于H800的HBM3(3.9TB/s),适合处理小数据集。:Volta架构首次引入Tensor Core,显存带宽高(900GB/s),适合大规模模型训练。:双GPU的Kepler架构,显存容量大但无现代AI加速单元,适合传统并行计算。:基于Pascal架构,定位为计算卡,通过魔改驱动实现游戏功能,显存带宽较低。原创 2025-03-18 09:48:43 · 1437 阅读 · 0 评论 -
有什么适合IT项目经理使用的AI生成流程图、UML图、泳道图等工具
操作步骤:向DeepSeek描述需求→获取Mermaid代码→在ProcessOn导入→生成并调整。使用DeepSeek生成Mermaid代码,导入ProcessOn一键生成图表。通过对话式交互,用自然语言描述需求,AI自动生成PlantUML代码并渲染图表。支持图表:流程图、时序图、泳道图、类图、ER图(通过Mermaid语法)。操作步骤:访问官网→点击“生成流程图”→输入描述→AI生成→调整导出。支持图表:UML图、系统架构图、流程图(基于PlantUML)。持迭代优化,例如调整系统设计中的组件关系。原创 2025-03-17 17:38:21 · 472 阅读 · 0 评论 -
独立部署DeepSeek 大语言模型(如 DeepSeek Coder、DeepSeek LLM)可以采用什么框架?
提供了丰富的预训练模型接口,对于 DeepSeek 模型,能通过简单的几行代码实现加载和推理。例如,你可以轻松指定模型名称,如 “deepseek-ai/deepseek-coder-6.7b-base”,就可以快速加载模型。:采用了先进的推理优化技术,如 PagedAttention,能够显著提高模型的推理速度,降低延迟。这些框架各有优缺点,你可以根据自己的具体需求,如性能要求、易用性、成本等因素,选择合适的框架来独立部署 DeepSeek 模型。无需编写复杂的代码,降低了部署的门槛。原创 2025-03-17 11:18:22 · 523 阅读 · 0 评论 -
有什么GPU卡可绕过CUDA依赖并能独立部署DeepSeek?
以下是一些可以绕过CUDA依赖并能独立部署DeepSeek的GPU卡:原创 2025-03-17 11:10:13 · 325 阅读 · 0 评论 -
(七)使用X99主板搭配双XEON E5-2660 V4或同系列CPU+NVIDIA P106-100部署Deepseek的可行性
(新装机的话,二手CPU,二手内存,一手SSD,一手电源,开放式机箱,一手散热器、需自行解决散热风扇问题),如果在原有已经有是x99架构的双CPU朋友,节省掉SSD和加少许内存情况下也可升级改造。:如Windows 7、Ubuntu 16.04等,对CUDA 11.0的支持可能有限,可能需要降级CUDA版本。或更高版本:支持NVIDIA P106-100,但需要安装适当的驱动程序和CUDA toolkit。:检查操作系统版本是否支持当前的NVIDIA驱动,可能需要调整操作系统版本或使用旧版本驱动。原创 2025-03-13 18:13:29 · 1028 阅读 · 0 评论 -
(六)与英伟达 V100 对标的,但又便宜且好用的运算卡对比表及部署Deepseek的对标情况。
需要稳定运行 Deepseek,建议选择 P106-100,但是需要注意主板、CPU及操作系统对驱动程序、工具集的支持,这点需要十分谨慎。如果需要利用最新的架构优势,如A100的Ampere架构,可能需要升级,但P106-100在性能和价格之间提供了不错的平衡。:P106-100的性能接近V100,提供4000+ Tokens/s,适合中等规模的模型部署。总结来说,P106-100是可以部署Deepseek的,并且是预算有限用户的一个合适选择。:基于 Ampere 架构,价格非常便宜,适合入门级用户。原创 2025-03-13 18:04:24 · 712 阅读 · 0 评论 -
(五)基于A100、V100和K80三种GPU部署Deepseek的最高版本的详细信息
基于A100、V100和K80三种GPU部署Deepseek的最高版本的详细信息原创 2025-03-13 17:57:58 · 364 阅读 · 0 评论 -
(四)英伟达K80、V100和A100三款GPU在Tokenss等关键指标及性能特征上的对比分析
Ampere架构第三代Tensor Core,支持TF32和稀疏计算,显存带宽(1555 GB/s)和容量(80GB)大幅提升,适用于超大规模模型(如GPT-3)。Volta架构引入第一代Tensor Core,支持FP16混合精度,显存带宽显著提升(900 GB/s),适合中等规模的模型训练和推理。A100的FP16性能是V100的2.5倍,K80因缺乏Tensor Core,FP32性能仅为A100的1/7027。在BERT模型训练中,A100性能是V100的6倍7,但V100仍能胜任多数企业级应用。原创 2025-03-13 17:56:26 · 1093 阅读 · 0 评论 -
(三)穷人技术部署方案:基于K80显卡的DeepSeek-Ollama部署
基于K80显卡的DeepSeek-Ollama部署原创 2025-03-13 17:54:13 · 1000 阅读 · 0 评论 -
(一)未来学习什么语言或相关的AI、数据库知识进行技术迭代提升?
物联网(IoT)与AR/VR的普及要求处理结构化与非结构化数据(如文本、图像、传感器数据),需熟悉NoSQL(如MongoDB)和图数据库(如Neo4j)。AI素养涵盖技术认知(如算法原理)、伦理判断(如数据隐私)及协作能力(如与领域专家合作)。需掌握AI全生命周期工具,如模型监控(MLOps)、自动化测试(如Red Teaming),以及伦理评估工具(如tachAId)。教育领域已通过“一课多融”模式(如结合AI与数据库课程)培养复合型人才,程序员需保持对技术趋势(如量子计算、边缘AI)的敏感度。原创 2025-02-27 17:41:38 · 853 阅读 · 0 评论 -
(二)未来十至二十年的信息技术核心领域(AI、数据库、编程语言)完全零基础者的学习路径与技能提升策略
通过以上路径,零基础者可在2-3年内完成从入门到中级开发者的转型,并在AI或数据库领域建立扎实竞争力。需注意:技术迭代速度极快,需保持每年投入至少200小时于新工具学习(如量子计算模拟器、边缘AI框架)。未来十至二十年的信息技术核心领域(AI、数据库、编程语言)对零基础学习者而言,需从基础知识构建→领域专项突破→项目实战→持续迭代四个阶段展开。1. 百度飞桨(PaddlePaddle)1. 中国大学MOOC《人工智能数学基础》中文文档完善,适配国产硬件(如昇腾芯片)2. 《程序员的数学》(结城浩著)原创 2025-02-27 17:45:03 · 1137 阅读 · 0 评论 -
借DeepSeek的风思考:未来可通过AI+视觉识别技术,实现足球比赛中的教练决策指挥系统,以此提高中国足球冲出亚洲夺取世界杯冠军
通过AI+视觉识别技术提升中国足球水平是一个长期过程,需要技术、数据、人才和政策的多方支持。系统的成功部署和实施将有助于提高中国足球的竞争力,但最终能否冲出亚洲、夺取世界杯,还取决于整体足球生态的改善。AI决策模型 :基于历史比赛数据,训练AI模型,提供战术建议、换人策略等。高质量数据 :收集大量高质量的比赛数据,包括球员跑动、传球、射门等信息,涵盖不同联赛、球队和球员的表现。技术团队 :组建具备AI、计算机视觉和体育分析能力的团队,负责系统开发和维护。原创 2025-02-27 17:03:12 · 558 阅读 · 0 评论 -
元脑服务器可用于DeepSeek部署
2024年4月17日,于浪潮信息生态伙伴大会上,“元脑”品牌经历全面升级,涵盖所有计算产品,成为智算领域的核心品牌。浪潮信息依托元脑生态体系,与合作伙伴共同推进元脑服务器在金融、制造、智能制造、智慧城市等多个领域的应用,为各行各业提供高效且可靠的智能计算支持,助力企业以更低的成本探索大型模型的智能潜能,加速推动各行业的智能化转型。全新升级的内存故障智能预警修复技术MUPR,从单端预警升级为BIOS、BMC两级防护,可实现对内存UCE故障的精准预测和实时修复,能有效规避80%以上的内存UCE发生。原创 2025-02-20 11:01:10 · 579 阅读 · 0 评论 -
可用于部署 DeepSeek 的国产 GPU 计算卡
JM 系列与 DeepSeek-R1-Distill-Qwen-1.5B 和 DeepSeek-R1-Distill-Qwen-7B 模型完美融合,景宏系列全面适配 DeepSeek R1 全系列模型,覆盖从 1.5B 到 70B 参数规模。宣布与 Gitee AI 合作,完成了与 DeepSeek-R1 模型的适配工作,并已上线多个大模型服务,包括 1.5B、7B、14B 等版本。通过多台搭载芯瞳 GPU 的电脑组建集群,支持 DeepSeek V3 和全量 R1 模型,适用于大型企业。原创 2025-02-20 10:36:07 · 688 阅读 · 0 评论 -
目前有哪些国产GPU支持DeepSeek?国产GPU支持的DeepSeek模型的性能如何?DeepSeek模型与其他模型相比有什么优势?没有CUDA的GPU可以部署Deepseek
适配了DeepSeek-R1/V3 671B原生模型、DeepSeek-R1-Distill-Qwen-1.5B/7B/14B/32B、DeepSeek-R1-Distill-Llama-8B/70B,通过燧原AI加速卡实现高效计算。适合复杂任务处理和高精度场景,如长文档分析、多模态推理、科研计算等,在逻辑推理、代码生成等任务中达到与GPT-4、Claude-3.5-Sonnet相近的性能,甚至超越部分开源模型如Llama-3.1-405B。原创 2025-02-20 09:41:12 · 1838 阅读 · 0 评论 -
部署 DeepSeek 需要安装OpenLIama(即 OLama)
OLama 是一个轻量级的 LLM 软件引擎,用于快速部署和运行大型语言模型(LLM)。它是 DeepSeek 的核心依赖之一,负责处理模型的加载和服务器端的推理。原创 2025-02-17 11:06:03 · 1274 阅读 · 0 评论 -
在企业内部私有化部署 DeepSeek 或其他 AI 大模型时,基于一般场景的最低硬件配置建议
CPU:Intel Core i5 或 AMD Ryzen 5000 系列(4 核心以上)。GPU:支持深度学习的 GPU(如 NVIDIA RTX 20/30/40 系列或 AMD Radeon VII)。内存:32GB 或更高。存储:1TB 硬盘或更大。网络:1Gbps 以太网接口。如果模型规模较大或推理任务复杂度较高,建议升级至更高性能的硬件配置(如 6 核 CPU + 32GB GPU)。原创 2025-02-17 10:56:58 · 1045 阅读 · 0 评论 -
需如何在企业内部(非云服务方式)部署DEEPSEEK或AI大模型,尤其是最低配置的情况?
容器编排系统,比如Kubernetes,适合企业内部的资源管理和自动化部署。在企业内部部署 DeepSeek 或其他 AI 大模型,最低配置方案可以基于容器化部署、容器编排系统或微服务架构实现。因此,提供既实用又不耗资源高的方案。云原生方案如AWS ECR和Kubeflow,虽然需要云资源,但适合快速部署和扩展。可考虑几种部署方式,比如容器化部署、容器编排系统、微服务架构,以及云原生解决方案。最后,结合企业实际情况选择方案,如使用容器化部署加%pam,或者微服务架构,根据现有资源和复杂性来决定。原创 2025-02-17 10:44:10 · 1169 阅读 · 0 评论