自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(54)
  • 收藏
  • 关注

原创 MindIE关于Qwen3 如何开启和关闭思考模式【说明版】

Qwen3模型可通过三种方法控制思考模式:(1) Prompt追加/no_think快速关闭思考;(2) API调用时设置enable_thinking参数动态控制;(3) 修改配置文件改变默认行为。其中Prompt方式最便捷,API参数灵活性高,配置文件适合固定部署场景。思考模式会显著影响推理速度,建议根据任务需求选择控制方法,不同部署框架需注意兼容性差异。未来可能通过Agent框架实现自动切换功能。

2025-07-01 10:02:54 1037

原创 昇腾910(NPU)安装paddlepaddle【自用版】

芯片类型CANN 版本驱动版本昇腾 910CANN 7.0.123.0.2注意分支仅支持昇腾 910芯片。如需支持昇腾 910B芯片,请切换到develop分支。查看芯片类型命令:# 昇腾 910lspci | grep d801 ##驱动显示910B是910芯片# 昇腾 910Blspci | grep d802 ##驱动显示910B1-4才是910B芯片。

2025-06-27 16:03:08 673

原创 鲲鹏+昇腾(310P)部署Qwen3-32B【简单版】

鲲鹏+昇腾(310P)部署Qwen3-32B【简单版】

2025-06-23 10:07:58 284

原创 Entering emergency mode. Exit the shell to continue“journalctl‘to view system logs。【比较全的解决办法】

Linux 系统紧急模式故障排查指南当系统进入紧急模式时,通常因文件系统损坏、LVM配置异常或启动加载错误导致。

2025-06-06 12:13:41 851

原创 Qwen3-30B对比QwQ-32B【水篇1】

本文对比了Qwen3-30B-A3B和QwQ-32B两款模型在参数规模、性能表现、适用场景及适配优化方面的差异。Qwen3-30B-A3B以低激活参数实现高效推理,适合对速度和成本敏感的场景;而QwQ-32B在复杂推理任务中表现优异,但计算资源消耗较高。两款模型均已适配国产芯片(鲲鹏昇腾),用户可根据具体需求选择:Qwen3-30B-A3B适合综合效率与成本控制,QwQ-32B则更适合复杂推理任务。

2025-05-22 16:05:02 1698

原创 鲲鹏+昇腾Atlas800IA2(910B4)部署Qwen3-32B【简单自用版】

Qwen3-32B是Qwen系列中最新一代的大型语言模型,具备强大的推理、指令遵循、代理功能和多语言支持能力。该模型支持思维模式和非思维模式的切换,适用于复杂逻辑推理和高效通用对话。部署Qwen3-32B需要下载相应的权重数据和镜像包,并通过Docker加载镜像并启动容器。在配置文件中设置模型权重路径和使用的芯片数量后,可以拉起服务化推理并进行测试。尽管在部署过程中可能会遇到依赖问题,但通过社区支持可以顺利解决。Qwen3-32B在多种任务中表现出色,提供了更自然、更沉浸式的对话体验。

2025-05-22 15:42:15 2028 8

原创 IPv6地址划分,讲透给你听【详细版】

IPv6地址划分,讲透给你听【详细版】

2025-05-11 22:05:18 2686

原创 Linux系统(OpenEuler22.03-LTS)部署FastGPT

Linux系统(OpenEuler22.03-LTS)部署FastGPT

2025-05-08 14:05:48 1088

原创 docker部署Open WebUI下载速度慢解决方法

docker部署Open WebUI下载速度慢解决方法

2025-05-04 15:29:44 517

原创 昇腾的昇思MindSpore是什么?跟TensorFlow/PyTorch 等第三方框架有什么区别和联系?【浅谈版】

昇腾的昇思MindSpore是什么?跟TensorFlow/PyTorch 等第三方框架有什么区别和联系?【浅谈版】

2025-05-03 15:51:56 1285

原创 昇腾的CANN是什么?跟英伟达CUDA的有什么联系和区别?【浅谈版】

昇腾的CANN是什么?跟英伟达CUDA的有什么联系和区别?【浅谈版】

2025-05-03 15:42:35 2229

原创 关于昇腾的MindIE性能调优流程的最优性能参数配置【浅谈版】

关于昇腾的MindIE性能调优流程的最优性能参数配置【浅谈版】

2025-04-28 11:33:23 1117

原创 GPUStack昇腾Atlas300I duo部署模型DeepSeek-R1【GPUStack实战篇2】

鲲鹏+GPUStack昇腾Atlas300I duo部署模型DeepSeek-R1【GPUStack实战篇2】

2025-04-27 15:23:24 1805 4

原创 Linux安装nvidia驱动【详细版】

linux安装nvidia驱动【详细版】

2025-04-23 10:41:54 3489

原创 eNSP无法启动AR报错码40,而且按照eNSP帮助手册排查都没用,我的处理方法【自己存档版】

eNSP无法启动AR报错码40,而且按照eNSP帮助手册排查都没用,我的处理方法【自己存档版】

2025-04-18 22:20:15 2138

原创 关于ollama分支(Ascend)昇腾NPU【浅试版】

关于ollama分支(Ascend)昇腾NPU【浅试版】

2025-04-17 15:16:24 1996 2

原创 昇腾Atlas卡安装CANN【详细版】

昇腾Atlas卡安装CANN【详细版】

2025-04-17 14:58:38 1607

原创 昇腾Atlas卡安装驱动教程【详细版】

昇腾Atlas卡安装驱动教程【详细版】

2025-04-17 14:22:19 825

原创 docker部署GPUStack【Nvidia版本】

docker部署GPUStack【Nvidia版本】

2025-04-14 23:50:56 787

原创 鲲鹏+昇腾部署集群管理软件GPUStack,两台服务器搭建双节点集群【实战详细踩坑篇】

鲲鹏+昇腾部署集群管理软件GPUStack,两台服务器搭建双节点集群【实战详细踩坑篇】

2025-04-14 23:45:45 1430

原创 银河麒麟服务器操作系统V10安装Nvidia显卡驱动和CUDA(L40)并安装ollama运行DeepSeek【开荒存档版】

银河麒麟服务器操作系统V10安装Nvidia显卡驱动和CUDA(L40)并安装ollama运行DeepSeek【开荒存档版】

2025-04-11 11:29:53 2001

原创 已经安装了pip,出现pip command not found【解决方法】

已经安装了pip,出现pip command not found【解决方法】

2025-04-11 00:11:33 1380

原创 银河麒麟v10(arm架构)部署Embedding模型bge-m3【简单版本】

银河麒麟v10(arm架构)部署Embedding模型bge-m3【简单版本】

2025-04-11 00:02:26 1302 2

原创 ubuntu安装openWebUI和Dify【自用详细版】

ubuntu安装openWebUI和Dify【自用详细版】

2025-04-08 09:15:49 545

原创 ubuntu安装docker和docker-compose【简单详细版】

ubuntu安装docker和docker-compose【简单详细版】

2025-04-07 21:42:05 1983 2

原创 Ubuntu 24.04 LTS系统安装RTX 4090显卡驱动和cuda并部署ollama下载DeepSeek模型【自用详细版】

Ubuntu 24.04 LTS系统安装RTX 4090显卡驱动和cuda并部署ollama下载DeepSeek模型【自用详细版】

2025-04-07 21:18:20 1881

原创 vscode集成deepseek实现辅助编程(银河麒麟系统)【详细自用版】

vscode集成deepseek实现辅助编程(银河麒麟系统)【详细自用版】

2025-04-01 15:14:47 1242

原创 基于银河麒麟桌面&&服务器操作系统的 DeepSeek本地化部署方法【详细自用版】

基于银河麒麟桌面/服务器操作系统的 DeepSeek本地化部署方法【详细自用版】

2025-04-01 15:03:15 1237

原创 Linux系统离线安装ollama【详细版】

Linux系统离线安装ollama【详细版】

2025-03-26 23:56:41 1774

原创 ollama: /usr/lib64/libstdc++.so.6: version `GLIBCXX_3.4.25‘ not found (required by ollama)

在麒麟V10SP3 2403系统离线安装ollama中解决缺少`GLIBCXX_3.4.25`的问题

2025-03-26 22:20:16 2362 16

原创 Linux系统部署Dify教程【详细版】

Linux系统Dify 安装教程(详细版)

2025-03-20 16:44:50 2521

原创 鲲鹏+昇腾Atlas300Iduo部署Embedding模型和Rerank模型并连接Dify(自用详细版)

鲲鹏+昇腾Atlas300Iduo部署Embedding模型和Rerank模型并连接Dify(自用详细版)

2025-03-20 16:34:06 1379 7

原创 openEuler系统迁移 Docker 数据目录到 /home,解决Docker 临时文件占用大问题

openEuler系统迁移 Docker 数据目录到 /home,解决Docker 临时文件占用大问题

2025-03-17 11:00:43 906

原创 解决 openeuler 系统 docker 下载慢,docker 镜像加速

通过以上步骤,你可以成功为 openEuler 系统上的 Docker 配置镜像加速器。如果遇到问题,建议优先检查配置文件语法、镜像源地址的有效性以及系统网络连接。如果该文件不存在,则需要先创建目录和文件。Docker 的镜像源配置文件路径为。

2025-03-16 12:01:53 750

原创 鲲鹏+昇腾卡部署Embedding和rerank模型连接Dify

鲲鹏+昇腾(适用310P和910芯片)部署Embedding和rerank模型连接Dify

2025-03-15 18:27:19 1829 3

原创 解决 openeuler22.03lts的 pip 下载慢问题

【代码】解决 openeuler22.03lts的 pip 下载慢问题。

2025-03-08 17:51:28 214

原创 鲲鹏+昇腾部署通义千问 QwQ-32B(详细版)【信创国产化】

配置:2 * 920 + 4 * Atals 300I duo系统: openEuler 22.03 lts参考文章:https://modelers.cn/models/MindIE/QwQ-32B。

2025-03-08 16:05:18 2767 16

原创 DeepSeek-R1-Distill-Llama-70B + Dify (私有知识库)【鲲鹏+昇腾-国产化信创】

DeepSeek-R1-Distill-Llama-70B + Dify (私有知识库)【鲲鹏+昇腾-国产化信创】

2025-03-06 09:36:38 1331 15

原创 mindie:1.0.0-300I-Duo-py311-openeuler24.03-lts以及其他mindie镜像下载列表【昇腾社区】

mindie:1.0.0-300I-Duo-py311-openeuler24.03-lts以及其他mindie镜像下载列表

2025-03-01 00:22:06 3592 24

原创 openEuler 22.03 LTS (aarch64)系统上离线安装 Docker 27.5(或指定版本)和 Docker Compose

openEuler 22.03 LTS** 系统上离线安装 Docker 27.5(或指定版本)和 Docker Compose

2025-02-28 23:38:06 1957

2024年最新版nginx,windows版本

2024年最新版nginx,windows版本

2024-03-28

redis-7.2.4.tar.gz

2024/3/26目前最新版

2024-03-26

计算机二级公共基础知识

计算机二级WPS精选350道选择题;计算机二级WPS office高级应用与设计考试大纲;计算机二级公共基础知识点总结

2024-03-26

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除