- 博客(44)
- 收藏
- 关注
原创 技术简报:百度秒哒AI无代码平台痛点与开发者困境
据工信部2023年Q4数据,个人网站备案通过率不足32%(企业备案率为89%),主因包括域名解析冲突、服务器资质不符等。强制公开发布门槛:最终应用必须绑定已备案空域名(无解析记录),个人开发者需独立完成工信部备案流程。域名需"未投入使用"状态备案 → 实际操作中需先购买域名+服务器并暂停解析,与个人开发者低成本试错需求冲突。推动建立开发者沙箱备案白名单机制(参考欧盟GDPR的"数据沙盒"监管沙盒模式)。建立"无代码开发合规性知识图谱",标注各平台部署红线(如附对比表格)。
2025-03-27 15:54:29
643
原创 Deepseek V3、豆包、百度秒哒在AI人工智能无代码编程方面的差异分析?
--以上分析基于当前技术进展与用户反馈,实际应用中需结合具体需求选择工具。
2025-03-26 17:30:38
1321
原创 DeepSeek V3 和 R1 在架构、技术性能、优缺点和部署方面差异?
选择模型时,需根据具体需求和硬件资源决定。V3适合通用语言处理任务,而R1适合复杂逻辑推理场景。
2025-03-26 09:40:14
556
原创 在部署 DeepSeek 模型时,如采用Jetson Orin Nano 和 NVIDIA H100 的性能差异对比如何?
Jetson Orin Nano 和 NVIDIA H100 的性能差异显著,前者适合轻量化、低功耗的边缘计算场景,后者则适合高性能、高吞吐量的数据中心场景。:显存容量有限,适合运行 1.5B 或 7B 模型,大模型(如 14B)可能因显存不足无法运行。:高性能、高吞吐量,适合大规模模型训练和推理(如 DeepSeek 14B 或更高参数模型)。:低功耗、小型化,适合边缘设备、嵌入式 AI 应用(如机器人、无人机、智能摄像头)。:支持更大规模的模型(如 14B 或更高),且显存带宽更高,适合高并发推理。
2025-03-19 11:48:56
804
原创 是否可以在 英伟达 Jetson Orin Nano 上部署 DeepSeek 模型?
总的来说,因为Jetson Orin Nano主要应用于轻量化边缘计算使用,如适合边缘设备、嵌入式 AI 应用(如机器人、无人机、智能摄像头)。而大规模模型训练和推理(如 DeepSeek 14B 或更高参数模型)则不适合,因此需根据不同的应用场景进行选择。:大模型(如 14B 或更高参数)需要更高的显存和算力,Jetson Orin Nano 可能难以流畅运行。:本地部署适合高隐私场景,但需确保符合数据安全法规(如 GDPR)。:1.5B 模型需约 4GB 显存,7B 模型需 8GB 以上。
2025-03-19 11:43:32
579
原创 英伟达PTX指令集与各CUDA版本的关系
虽然PTX指令集的官方文档是英文的,但通过查阅NVIDIA的CUDA工具包文档和相关资源,可以详细了解不同CUDA版本中PTX指令集的变化和新增功能。
2025-03-19 10:13:47
625
原创 P106-100、K80、H800、V100 四款显卡在架构、PTX指令集、算力、性能等方面的差异及优缺点对比:
Hopper架构的阉割版,保留第四代Tensor Core和FP8支持,但NVLink带宽和FP64性能受限。:K80的GDDR5显存带宽(240GB/s)远低于H800的HBM3(3.9TB/s),适合处理小数据集。:Volta架构首次引入Tensor Core,显存带宽高(900GB/s),适合大规模模型训练。:双GPU的Kepler架构,显存容量大但无现代AI加速单元,适合传统并行计算。:基于Pascal架构,定位为计算卡,通过魔改驱动实现游戏功能,显存带宽较低。
2025-03-18 09:48:43
1405
原创 有什么适合IT项目经理使用的AI生成流程图、UML图、泳道图等工具
操作步骤:向DeepSeek描述需求→获取Mermaid代码→在ProcessOn导入→生成并调整。使用DeepSeek生成Mermaid代码,导入ProcessOn一键生成图表。通过对话式交互,用自然语言描述需求,AI自动生成PlantUML代码并渲染图表。支持图表:流程图、时序图、泳道图、类图、ER图(通过Mermaid语法)。操作步骤:访问官网→点击“生成流程图”→输入描述→AI生成→调整导出。支持图表:UML图、系统架构图、流程图(基于PlantUML)。持迭代优化,例如调整系统设计中的组件关系。
2025-03-17 17:38:21
466
原创 独立部署DeepSeek 大语言模型(如 DeepSeek Coder、DeepSeek LLM)可以采用什么框架?
提供了丰富的预训练模型接口,对于 DeepSeek 模型,能通过简单的几行代码实现加载和推理。例如,你可以轻松指定模型名称,如 “deepseek-ai/deepseek-coder-6.7b-base”,就可以快速加载模型。:采用了先进的推理优化技术,如 PagedAttention,能够显著提高模型的推理速度,降低延迟。这些框架各有优缺点,你可以根据自己的具体需求,如性能要求、易用性、成本等因素,选择合适的框架来独立部署 DeepSeek 模型。无需编写复杂的代码,降低了部署的门槛。
2025-03-17 11:18:22
520
原创 (七)使用X99主板搭配双XEON E5-2660 V4或同系列CPU+NVIDIA P106-100部署Deepseek的可行性
(新装机的话,二手CPU,二手内存,一手SSD,一手电源,开放式机箱,一手散热器、需自行解决散热风扇问题),如果在原有已经有是x99架构的双CPU朋友,节省掉SSD和加少许内存情况下也可升级改造。:如Windows 7、Ubuntu 16.04等,对CUDA 11.0的支持可能有限,可能需要降级CUDA版本。或更高版本:支持NVIDIA P106-100,但需要安装适当的驱动程序和CUDA toolkit。:检查操作系统版本是否支持当前的NVIDIA驱动,可能需要调整操作系统版本或使用旧版本驱动。
2025-03-13 18:13:29
1006
原创 (六)与英伟达 V100 对标的,但又便宜且好用的运算卡对比表及部署Deepseek的对标情况。
需要稳定运行 Deepseek,建议选择 P106-100,但是需要注意主板、CPU及操作系统对驱动程序、工具集的支持,这点需要十分谨慎。如果需要利用最新的架构优势,如A100的Ampere架构,可能需要升级,但P106-100在性能和价格之间提供了不错的平衡。:P106-100的性能接近V100,提供4000+ Tokens/s,适合中等规模的模型部署。总结来说,P106-100是可以部署Deepseek的,并且是预算有限用户的一个合适选择。:基于 Ampere 架构,价格非常便宜,适合入门级用户。
2025-03-13 18:04:24
709
原创 (五)基于A100、V100和K80三种GPU部署Deepseek的最高版本的详细信息
基于A100、V100和K80三种GPU部署Deepseek的最高版本的详细信息
2025-03-13 17:57:58
340
原创 (四)英伟达K80、V100和A100三款GPU在Tokenss等关键指标及性能特征上的对比分析
Ampere架构第三代Tensor Core,支持TF32和稀疏计算,显存带宽(1555 GB/s)和容量(80GB)大幅提升,适用于超大规模模型(如GPT-3)。Volta架构引入第一代Tensor Core,支持FP16混合精度,显存带宽显著提升(900 GB/s),适合中等规模的模型训练和推理。A100的FP16性能是V100的2.5倍,K80因缺乏Tensor Core,FP32性能仅为A100的1/7027。在BERT模型训练中,A100性能是V100的6倍7,但V100仍能胜任多数企业级应用。
2025-03-13 17:56:26
1083
原创 (二)未来十至二十年的信息技术核心领域(AI、数据库、编程语言)完全零基础者的学习路径与技能提升策略
通过以上路径,零基础者可在2-3年内完成从入门到中级开发者的转型,并在AI或数据库领域建立扎实竞争力。需注意:技术迭代速度极快,需保持每年投入至少200小时于新工具学习(如量子计算模拟器、边缘AI框架)。未来十至二十年的信息技术核心领域(AI、数据库、编程语言)对零基础学习者而言,需从基础知识构建→领域专项突破→项目实战→持续迭代四个阶段展开。1. 百度飞桨(PaddlePaddle)1. 中国大学MOOC《人工智能数学基础》中文文档完善,适配国产硬件(如昇腾芯片)2. 《程序员的数学》(结城浩著)
2025-02-27 17:45:03
1135
原创 (一)未来学习什么语言或相关的AI、数据库知识进行技术迭代提升?
物联网(IoT)与AR/VR的普及要求处理结构化与非结构化数据(如文本、图像、传感器数据),需熟悉NoSQL(如MongoDB)和图数据库(如Neo4j)。AI素养涵盖技术认知(如算法原理)、伦理判断(如数据隐私)及协作能力(如与领域专家合作)。需掌握AI全生命周期工具,如模型监控(MLOps)、自动化测试(如Red Teaming),以及伦理评估工具(如tachAId)。教育领域已通过“一课多融”模式(如结合AI与数据库课程)培养复合型人才,程序员需保持对技术趋势(如量子计算、边缘AI)的敏感度。
2025-02-27 17:41:38
852
原创 借DeepSeek的风思考:未来可通过AI+视觉识别技术,实现足球比赛中的教练决策指挥系统,以此提高中国足球冲出亚洲夺取世界杯冠军
通过AI+视觉识别技术提升中国足球水平是一个长期过程,需要技术、数据、人才和政策的多方支持。系统的成功部署和实施将有助于提高中国足球的竞争力,但最终能否冲出亚洲、夺取世界杯,还取决于整体足球生态的改善。AI决策模型 :基于历史比赛数据,训练AI模型,提供战术建议、换人策略等。高质量数据 :收集大量高质量的比赛数据,包括球员跑动、传球、射门等信息,涵盖不同联赛、球队和球员的表现。技术团队 :组建具备AI、计算机视觉和体育分析能力的团队,负责系统开发和维护。
2025-02-27 17:03:12
554
原创 元脑服务器可用于DeepSeek部署
2024年4月17日,于浪潮信息生态伙伴大会上,“元脑”品牌经历全面升级,涵盖所有计算产品,成为智算领域的核心品牌。浪潮信息依托元脑生态体系,与合作伙伴共同推进元脑服务器在金融、制造、智能制造、智慧城市等多个领域的应用,为各行各业提供高效且可靠的智能计算支持,助力企业以更低的成本探索大型模型的智能潜能,加速推动各行业的智能化转型。全新升级的内存故障智能预警修复技术MUPR,从单端预警升级为BIOS、BMC两级防护,可实现对内存UCE故障的精准预测和实时修复,能有效规避80%以上的内存UCE发生。
2025-02-20 11:01:10
572
原创 可用于部署 DeepSeek 的国产 GPU 计算卡
JM 系列与 DeepSeek-R1-Distill-Qwen-1.5B 和 DeepSeek-R1-Distill-Qwen-7B 模型完美融合,景宏系列全面适配 DeepSeek R1 全系列模型,覆盖从 1.5B 到 70B 参数规模。宣布与 Gitee AI 合作,完成了与 DeepSeek-R1 模型的适配工作,并已上线多个大模型服务,包括 1.5B、7B、14B 等版本。通过多台搭载芯瞳 GPU 的电脑组建集群,支持 DeepSeek V3 和全量 R1 模型,适用于大型企业。
2025-02-20 10:36:07
685
原创 目前有哪些国产GPU支持DeepSeek?国产GPU支持的DeepSeek模型的性能如何?DeepSeek模型与其他模型相比有什么优势?没有CUDA的GPU可以部署Deepseek
适配了DeepSeek-R1/V3 671B原生模型、DeepSeek-R1-Distill-Qwen-1.5B/7B/14B/32B、DeepSeek-R1-Distill-Llama-8B/70B,通过燧原AI加速卡实现高效计算。适合复杂任务处理和高精度场景,如长文档分析、多模态推理、科研计算等,在逻辑推理、代码生成等任务中达到与GPT-4、Claude-3.5-Sonnet相近的性能,甚至超越部分开源模型如Llama-3.1-405B。
2025-02-20 09:41:12
1820
原创 安装最新版的python3.15后,无法pip install openai,排查先降版本安装的 Python 3.8,但没有自带 pip,可以通过以下几种方法来安装 pip
最近为进行deepseek接口的对接,打算在idea引用一个openai的库,但是发现python3.15更新新版后,无法pip install openai。最后,在windows的dos窗体中安装 openai,可以有两种方法,一种就是直接官网方式安装。get-pip.py 是官方提供的用于安装 pip 的脚本。
2025-02-18 16:14:36
638
原创 又是阿里云作怪,IntelliJ IDEA执行远程服务器上的程序,报错IDE上的Java版本与项目结构设置(SDK版本不同),如何可以阿里云上修改linux默认java路径。
因需要在本机IDEA中调用云服务器上的源码,进行测试代码运行,IDEA默认借用云上的SDK,其中包括JDK,但原本机IDEA需要1.8以上版本JDK才可以运行,系统调用云中的JDK版本不对,但本人记得之前我已经改过云上的JDK是23版的,现在又报错,经判断查出原因就是阿里云经常YUM UPDATE后,或初始化安全检测后,自动将我的JDK路径又指去了1.8版。如果系统中已经配置了多个 Java 版本,该命令会列出所有可用的 Java 版本,并让你选择默认使用的版本。这里的1是优先级,数字越大优先级越高。
2025-02-17 16:37:26
567
原创 在 CentOS 中不能直接采用yum安装 OLama ,需要如何解决?
如果无法找到合适的二进制包,建议通过源代码安装 OLama,或者联系 OLama 的维护者,询问是否有专门针对 CentOS 的二进制包。可能不太常见,因为 OLama 并不是一个官方的 CentOS 包。在安装 OLama 之前,需要先安装一些必要的依赖项。(Yet Another Meta Package)安装。在 CentOS 中,可以将 OLama 的路径添加到。将实际构建路径替换为。
2025-02-17 11:15:00
469
原创 如何在在 CentOS 中安装 OLama
完成以上步骤后,OLama 应该成功安装,并且可以在CentOS上使用。接下来,你可以根据需要进行进一步的配置和扩展。这会启动一个不可中断的OLama服务,通过标准输入输出(stdin/stdout)接收请求。在安装 OLama 之前,需要先安装一些必要的依赖项,包括编译器、框架和工具。OLama 的一些组件需要额外的依赖项。这会运行OLama的测试用例。如果测试通过,说明安装成功。如果编译过程中遇到错误,可以检查错误信息并相应处理。是一个相对直接的过程。为OLama实际的构建目录路径。
2025-02-17 11:13:54
924
原创 部署 DeepSeek 需要安装OpenLIama(即 OLama)
OLama 是一个轻量级的 LLM 软件引擎,用于快速部署和运行大型语言模型(LLM)。它是 DeepSeek 的核心依赖之一,负责处理模型的加载和服务器端的推理。
2025-02-17 11:06:03
1259
原创 在企业内部私有化部署 DeepSeek 或其他 AI 大模型时,基于一般场景的最低硬件配置建议
CPU:Intel Core i5 或 AMD Ryzen 5000 系列(4 核心以上)。GPU:支持深度学习的 GPU(如 NVIDIA RTX 20/30/40 系列或 AMD Radeon VII)。内存:32GB 或更高。存储:1TB 硬盘或更大。网络:1Gbps 以太网接口。如果模型规模较大或推理任务复杂度较高,建议升级至更高性能的硬件配置(如 6 核 CPU + 32GB GPU)。
2025-02-17 10:56:58
1037
原创 需如何在企业内部(非云服务方式)部署DEEPSEEK或AI大模型,尤其是最低配置的情况?
容器编排系统,比如Kubernetes,适合企业内部的资源管理和自动化部署。在企业内部部署 DeepSeek 或其他 AI 大模型,最低配置方案可以基于容器化部署、容器编排系统或微服务架构实现。因此,提供既实用又不耗资源高的方案。云原生方案如AWS ECR和Kubeflow,虽然需要云资源,但适合快速部署和扩展。可考虑几种部署方式,比如容器化部署、容器编排系统、微服务架构,以及云原生解决方案。最后,结合企业实际情况选择方案,如使用容器化部署加%pam,或者微服务架构,根据现有资源和复杂性来决定。
2025-02-17 10:44:10
1167
原创 又是阿里云npm install报错:ENOENT: no such file or directory, open ‘/root/package.json‘
具体错误信息为 ENOENT: no such file or directory, open '/root/package.json',意思是 npm 尝试读取 /root/package.json 文件,但该文件并不存在。总结,十分判断阿里云的LINUX,因为他本身有很多的判断配置文件都是缺失,或路径不对,从而造成很多配置上的问题,一般小白部署环境不会搞,就会又得买他们服务。在错误信息中可以看到 verbose cwd /root,这表示当前工作目录是 /root,你需要进入到实际的项目目录。
2025-02-14 11:51:15
926
原创 基于预算有限及研发工作为主,对i7 cpu进行xeon系列平替的比较
大多数搞研发的朋友们,以前可能不太会自己搭建服务器来搞开发,毕竟那玩意儿费电又费钱。但现在市面上那些老旧的服务器CPU价格都跌到地板上了,所以咱们得考虑性价比,找个差不多的替代品。于是我就弄了个XEON E5系列和Intel i7/Xeon X79/X99的性能对比表,大家参考一下。
2025-02-14 10:43:11
389
原创 Intel i7系列CPU替换为Xeon X79或X99架构的CPU替代方案和对比分析
Intel i7系列CPU替换为Xeon X79或X99架构的CPU,需要从性能、功耗、兼容性、价格和应用场景等多方面进行分析。
2025-02-14 10:29:54
987
原创 Intel i7 CPU各代之间性能概览及现今PC主流CPU采购
从第一代到第13代,Intel i7 CPU在核心数、线程数、频率、缓存和制程工艺等方面都有显著提升。最新代的i7 CPU不仅性能强劲,而且能效更高,适合高性能需求的用户。选择时应根据具体需求和预算来决定,如果对性能要求较高,最新代的i7 CPU会是更好的选择。
2025-02-14 10:16:06
1484
原创 在国产信创领域,海光7285 32C处理器与Intel至强处理器、AMD EPYC处理器、华为鲲鹏920的性价比对比
在国产信创领域,海光7285在性能、生态适配和安全自主可控等方面表现均衡,价格也有一定优势,性价比相对不错;Intel至强处理器和AMD EPYC处理器在性能上有优势,但在安全自主可控和国产信创生态适配方面相对较弱,价格也较高,性价比在国产信创场景下相对较低。核心数量和线程数多,多核性能优势明显。以64核心的鲲鹏920为例,比Intel至强8180性能高33%左右,在多线程能力上表现出色,功耗也较低。基于ARM架构,与x86架构软件生态差异大,需专门适配优化,不过在ARM生态内的软件兼容性较好。
2025-02-12 12:13:26
621
原创 海光 7285 32C处理器与Intel、AMD、华为鲲鹏920对比
海光7285处理器在多核性能和能效方面表现出色,适合云计算、大数据和AI等场景,尤其在中国市场有较强的竞争力。而Intel和AMD则在全球市场有着更广泛的应用和生态系统支持,适用于更广泛的高性能计算和企业级应用。华为处理器则在能效和AI领域有独特优势。在选择处理器时,需根据具体应用场景、性能需求以及预算来决定。海光7285适合需要高性能和高性价比的用户,而Intel和AMD则适合对单核和多核性能有更高要求的场合。
2025-02-12 12:03:18
1845
原创 阿里云ECS上升级mysql为8.0.36后,没有my.cnf配置文件,以及mysql.sock套接字文件,brltty[859],[innoDB]等五种报错综合解决。
ERROR 2002 (HY000): Can't connect to local MySQL server through socket '/var/lib/mysql/mysql.sock' (2)和brltty[859]: file system mount error: usbfs[brltty-usbfs] -> /run/brltty/usbfs: No such device和[InnoDB]Plugin initialization aborted with error Generic e
2025-02-10 12:19:49
1148
原创 重装xwindow,采用yum remove xorg-X11*指令后,TOMCAT却提示JAVA又找不到。如何恢复被yum remove掉的包?
原本想在阿里云上重装xwindow,根据过去AI教程说需要先利用sudo yum remove xorg-x11*,对相关的包全部移除,没有注意到相关的包可能有太多涉及其他服务应用的内容,全部清了后连JAVA的包也被清了,可恶的就是连我的python3都清了。也必须要及时发现时候,尽快恢复被删除的包。找到移除软件包的操作记录:在历史记录中找到执行 yum remove 操作的那一条记录,记录下其 ID 号。yum history 命令可以记录 yum 的操作历史,你可以通过它来恢复之前移除的软件包。
2025-02-07 10:32:50
538
原创 问题一:因阿里云ECS安装 TOMCAT后,使用远程管理出现403报错403 Access Denied。问题二:重装TOMCAT,新版启动tomcat服务假装成功,却一直没有启动,端口没有占用。
问题一:因阿里云ECS安装 TOMCAT后,使用远程管理出现403报错403 Access Denied。问题二:重装TOMCAT,新版启动tomcat服务假装成功,却一直没有启动,端口没有占用。
2025-02-06 18:26:23
1073
原创 阿里云ECS目录中的TOMCAT目录下conf配置子目录下,不断重复上一层目录内容,嵌套N层一样的目录及文件在conf目录下。
无意中登录阿里云上的ECS配置TOMCAT,发现tomcat目录中的conf子目录,里面不断有重复的整个上级tomcat目录中内容,且只需在conf目录中不断重复,初步怀疑应该是阿里云出了问题,或安全漏洞。解决方法,可能只能更新一个tomcat或将conf目录下无用下级子目录及所有内容删除,并且修改其目录权限。
2025-02-05 17:27:05
234
原创 python中运行阿里百炼的通义千问openai样例时报错:from openai import OpenAIModuleNotFoundError: No module named ‘openai
python中运行阿里百炼的通义千问openai样例时报错:from openai import OpenAIModuleNotFoundError: No module named 'openai
2025-02-05 15:56:48
1708
1
原创 关于用户真实性格特点使用AI人工智能的解决方案灵感-如何利用AI技术实现社交软件中的人机对话,以提高社交APP软件用户粘度?(二)
角色化AI伙伴:设计具有独特人设(如导师、密友、玩伴)的虚拟形象,通过动态对话和表情动作增强真实感。-剧情互动:结合游戏化设计,让用户通过对话解锁故事线或任务(如解谜、角色扮演)。-日常习惯养成:AI作为“监督伙伴”,提醒用户完成目标(如健身、学习),增强依赖感。-新用户冷启动:AI充当“虚拟好友”,帮助新用户快速适应平台,缓解无人互动的尴尬。-实时翻译:支持跨语言聊天,打破社交边界(如Tandem的AI翻译功能)。- 提供“AI训练”功能,让用户通过反馈调整对话风格(如幽默/严谨)。
2025-01-26 14:57:50
852
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人