ai
文章平均质量分 64
hkNaruto
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【AI】Ubuntu 22.04 4060Ti16G 基于SWIFT框架的LoRA微调 模型Qwen3-1.8B 数据集弱智吧 微调笔记
先更新安装modescope,然后下载模型下载日志。原创 2025-05-18 17:22:11 · 937 阅读 · 0 评论 -
【AI】关于模型部署方案MindIE Server和vllm
MindIE Server 和 vLLM 都是面向大语言模型(LLM)推理部署的高性能工具,但它们的定位、技术路线和适用场景存在显著差异。使用昇腾 AI 编译器(CANN)生成高度定制化的计算图,实现算子融合和内存零拷贝。支持模型切分部署到边缘设备(如 Atlas 500),适应低带宽环境。自动合并不同长度的请求,提升 GPU 利用率(典型提升 30%+)。内置模型加密和可信执行环境(TEE)支持,满足企业级安全需求。:正在扩展对 NPU 的支持(试验性支持昇腾/寒武纪)部署华为系大模型(如 PanGu)原创 2025-05-07 19:39:56 · 1527 阅读 · 0 评论 -
【AI】模型与权重的基本概念
在 ModelScope 平台上,「模型」和「权重」的定义与工程实践紧密结合,理解它们的区别需要从实际的文件结构和加载逻辑入手。以下是一个典型 ModelScope 模型仓库的组成及其概念解析:以 deepseek-ai/deepseek-llm-7b-base 为例,模型仓库通常包含以下文件:bash复制下载Deepseek-R1-bf16-hfd-w8a8/├── config.json # 模型结构定义与超参数├── configuration_deepseek.p原创 2025-05-07 18:53:20 · 1365 阅读 · 0 评论 -
【AI】Ubuntu 22.04 evalscope 模型评测 Qwen3-4B-FP8
【代码】【AI】Ubuntu 22.04 evalscope 模型评测 Qwen3-4B-FP8。原创 2025-05-06 23:16:34 · 773 阅读 · 0 评论 -
【AI】Ubuntu 22.04 4060Ti 16G vllm-api部署Qwen3-8B-FP8
【代码】【AI】Ubuntu 22.04 4060Ti 16G vllm-api部署Qwen3-8B-FP8。原创 2025-05-06 20:54:57 · 1325 阅读 · 0 评论 -
【AI】10卡的GPU服务器,Docker 配置 docker-compose.yml 限制指定使用最后两块GPU 序号8,9
0,1 # 内部序号还是0,1 不是外部的8,9。2. device_ids参数是字符串数组,不是整形数组。观察GPU内存,可以确认容器内部是使用末尾的两块GPU。配置docker-compose.yml。1. 内部环境变量仍然是0,1。原创 2025-03-26 16:24:21 · 1255 阅读 · 0 评论 -
【AI】本地内网部署的ragflow,添加本地内网部署的deepseek_r1模型 OpenAI-API-Compatible
更新系统模型设置,可以看到添加的本地模型了。原创 2025-03-26 15:55:00 · 1714 阅读 · 0 评论 -
【AI】python程序调用DeepSeek R1 open ai 接口,实现上下文记忆,保留本次会话历史信息
【代码】【AI】python程序调用DeepSeek R1 open ai 接口,实现上下文记忆,保留本次会话历史信息。原创 2025-03-21 15:03:02 · 509 阅读 · 0 评论 -
【AI】openEuler 8卡 4090 Docker vllm/vllm-openai:v0.7.3 部署QwQ-32B模型指令
设置模型支持的最大上下文长度为81,920 tokens。:预留4GB的CPU内存/磁盘空间作为GPU内存交换区。:缓解GPU内存不足问题(单位可能是GB,需确认文档)。:API请求时可通过此名称指定模型(多模型部署时重要)。:指定容器内模型文件的路径(对应挂载的宿主机目录)。:支持超大模型推理(如32B参数模型需多卡并行)。:节省GPU内存,同时保持数值稳定性(适合推理)。:设置张量并行度为8,将模型拆分到8块GPU上。:处理超长文本输入(需模型本身支持)。:定义服务中模型的名称。原创 2025-03-21 09:04:10 · 1042 阅读 · 0 评论 -
【AI】单台10卡4090 openEuler服务器离线部署kasm workspace 提供简单的GPU云服务 虚拟化桌面
文件连接。原创 2025-03-12 19:43:34 · 920 阅读 · 0 评论 -
【AI】让deepseek_r1 671b将draw.io对应的xml数据格式转换成markdown上可以直接渲染出来的Mermaid格式
Mermaid原始数据。原创 2025-03-10 11:10:38 · 1426 阅读 · 0 评论 -
【AI】让deepseek_r1 671b输出draw.io可导入的xml图表数据
(fds)</div><div>犯得上发射点原创 2025-03-10 10:40:53 · 3615 阅读 · 1 评论 -
【AI】ubuntu 22.04 docker部署Dify
【代码】【AI】ubuntu 22.04 docker部署Dify。原创 2025-02-24 20:12:46 · 567 阅读 · 0 评论 -
【AI】ragflow 多张 4090 GPU 初始化文档报错 NCCL Error 2: unhandled system error
GPU。原创 2025-02-21 12:36:20 · 1465 阅读 · 9 评论 -
【AI】openEuler 22.03 LTS SP4安装 docker NVIDIA Container Toolkit
打开网址为方便离线安装,先下载过来离线安装。原创 2025-02-21 10:10:50 · 1194 阅读 · 0 评论 -
【AI】openEuler 22.03 LTS SP4安装cuda nvidia驱动
下载选择麒麟V10的runfile安装依赖关闭selinux执行默认安装故障处理。原创 2025-02-20 20:33:57 · 1527 阅读 · 0 评论 -
【AI】ragflow + ollama + deepseek-r1本地部署后的配置 目的:给AI大模型输入知识,代替模型微调工作
前提:ragflow、ollama以及模型deepseek-r1已经本地部署完毕。原创 2025-02-16 21:32:49 · 3249 阅读 · 5 评论 -
【AI】Docker部署ragflow笔记 github加速地址 Docker加速地址 解决‘include‘ does not match any of the regexes: ‘^x-‘
其中80端口为web服务端口,访问效果。ragflow接近3GB。原创 2025-02-16 19:14:25 · 598 阅读 · 0 评论 -
【AI】ubuntu系统安装部署AnythingLLM,配置ollama连接 deepseek-r1
检查LLM首选项,此时模型选中来提前下载好的deepseek-r1:14b。搜狗输入法不能输入中文(暂时不处理),从gedit复制过来。Get started以后,选择ollama。点击-> 箭头(后续持续点击→箭头)右键start,作为程序运行。搜索anythingllm。原创 2025-02-16 17:06:21 · 2437 阅读 · 0 评论 -
【AI】ubuntu平台docker部署open-webui,配置模型 中文 提示词
ollama本地部署的,采用内网地址通知到open-webui。原创 2025-02-16 16:52:58 · 2531 阅读 · 0 评论 -
【windows】Windows平台C++项目MiniDump故障分析技术实施方案
MiniDump是Windows平台提供的一种轻量级崩溃信息捕获技术,能够记录应用程序崩溃时的线程、调用栈、寄存器状态等信息。通过本方案,研发和维护团队可以高效地捕获、分析和解决用户环境中的崩溃问题。结合符号服务器和自动化工具,能够显著提高故障分析的效率和准确性,确保软件的稳定性和用户体验。原创 2025-01-22 10:31:27 · 1107 阅读 · 0 评论 -
【linux】Linux平台C++项目崩溃分析技术实施方案
核心转储是Linux平台提供的一种崩溃信息捕获技术,能够记录应用程序崩溃时的内存状态、寄存器状态、调用栈等信息。通过本方案,研发和维护团队可以高效地捕获、分析和解决用户环境中的崩溃问题。结合调试符号和自动化工具,能够显著提高故障分析的效率和准确性,确保软件的稳定性和用户体验。原创 2025-01-22 10:30:36 · 1015 阅读 · 0 评论 -
【P2P】基于 Nebula 的 P2P 通信技术的虚拟局域网游戏设计方案
Nebula: 用于构建虚拟局域网,支持 NAT 穿透和 P2P 通信。游戏大厅: 用于管理玩家关系、房间创建与加入。局域网广播: 在虚拟局域网内实现游戏服务器的自动发现。原创 2025-01-22 10:28:55 · 1616 阅读 · 0 评论 -
【AI】ubuntu 22.04 RTX4060TI 16G 本地部署通义千问 7B模型
下载模型中途下载报错,手动下载几个没有正常拉下来的模型文件移动过来。原创 2024-04-10 14:29:43 · 3521 阅读 · 0 评论 -
【AI】ubuntu 22.04 本地搭建Qwen-VL 支持图片识别的大语言模型 AI视觉 【3】Qwen-VL-Chat-Int4版本 + 4060ti 16G
接上篇下载Qwen-VL-Chat-Int4版本模型这个版本模型体积小不少2060 6G 仍然不能启动web尝试参考模型中的README.md编写使用量化的代码test.py启动报错这个脚本的依赖与requirements.txt有一定差异参考文档手动安装故障依旧AI分析然而,根据之前的错误信息,对象似乎缺乏方法,导致在尝试从预训练模型加载时抛出了异常。这可能意味着在您当前安装的版本中,对于如何与配合进行模型量化加载有所变更,或者。原创 2024-04-09 10:11:55 · 2926 阅读 · 0 评论 -
【AI】ubuntu 22.04 本地搭建Qwen-VL 支持图片识别的大语言模型 AI视觉 【2】 4060ti 16G 也顶不住
迁移到4060ti 16G 环境下,仍然报错,显存不足!原创 2024-04-08 08:44:22 · 879 阅读 · 0 评论 -
【AI】ubuntu 22.04 本地搭建Qwen-VL 支持图片识别的大语言模型 AI视觉
接收对象中: 100% (584/584), 26.69 MiB | 1.50 MiB/s, 完成.接收对象中: 100% (205/205), 15.59 MiB | 1.57 MiB/s, 完成.git拉取modescope.cn的镜像大小不正确,使用git lfs pull拉取大文件。处理 delta 中: 100% (334/334), 完成.正克隆到 'Qwen-VL-Chat'...在Qwen-VL-Chat目录下执行。正克隆到 'Qwen-VL'...检查python3版本。原创 2024-04-07 16:28:40 · 1773 阅读 · 0 评论 -
【AI】Ubuntu 22.04 安装 cuda 12.3.2 545.23.08 报错unrecognized command-line
解决:使用gcc-12。原创 2024-02-21 15:19:39 · 936 阅读 · 0 评论 -
【AI】aarch64 kylin llama.cpp CUDA 适配 Chinese-LLaMA-Alpaca-2 启用 Tesla P4 8G GPU支持【失败】
报错:gcc: 错误:unrecognized command-line option ‘-Wunreachable-code-break’;make: *** [Makefile:693:benchmark-matmult] 错误 1。make: *** [Makefile:704:q8dot] 错误 1。make: *** [Makefile:626:gguf] 错误 1。make: *** [Makefile:701:vdot] 错误 1。神奇,用的clang,报gcc错误。原创 2024-01-26 17:00:29 · 1737 阅读 · 1 评论 -
【AI】Chinese-LLaMA-Alpaca-2 7B llama.cpp 量化方法选择及推理速度测试 x86_64 RTX 2060 6G 显存太小了
操作系统CPU内存。原创 2024-01-25 15:19:39 · 2106 阅读 · 1 评论 -
【AI】S2500 64C*2 arm64 aarch64 kylin server 编译llama.cpp 使用chinese-alpaca-2-7b模型 CPU版本 更多的核心没有带来更好的性能
报错ggml-quants.c:436:27: 错误:implicit declaration of function ‘vld1q_s16_x2’;原创 2024-01-23 15:26:46 · 1354 阅读 · 1 评论 -
【AI】D2000 arm64 aarch64 22.04.3 LTS (Jammy Jellyfish) 编译llama.cpp 使用chinese-alpaca-2-7b模型 CPU版本
下载模型到/home/yeqiang/Downloads/ai/chinese-alpaca-2-7b目录。原创 2024-01-23 14:29:41 · 1711 阅读 · 0 评论 -
【python】py-spy 实时显示python进程内的线程堆栈CPU消耗 python CPU消耗分析
py-spy是一个第三方命令行工具,它允许你在不修改代码的情况下分析Python程序的运行时行为,包括查看CPU使用、线程堆栈以及生成火焰图(Flame Graphs), 热力图可以通过其他工具基于其生成的数据来绘制。: Pyroscope是一个开源的持续性能分析工具,支持Python应用,它可以提供动态火焰图并且能实时监控CPU占用。针对分析python进程cpu消耗,有没有类似java中的arthas工具,可以查看到进程内的各线程CPU使用率,生成热力图,看到具体是哪个函数占用cpu?原创 2024-01-17 10:03:32 · 2880 阅读 · 0 评论 -
多卡运行分布式训练卡死 nccl_p2p_disable iommu=pt
多卡运行分布式训练卡死 - 知乎转载 2024-01-17 09:12:01 · 1309 阅读 · 0 评论 -
【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 开源中英双语对话模型
python进程cpu使用率100.3%持续了很长时间,没有启用多线程?创建虚拟环境安装依赖。原创 2024-01-16 16:39:01 · 741 阅读 · 0 评论 -
Ubuntu 22.04 LTS ffmpeg mp4 gif 添加图片水印
ffmpeg编译安装6.0.1,参考。原创 2023-11-16 11:15:20 · 521 阅读 · 0 评论 -
Ubuntu 20.04 LTS ffmpeg gif mp4 互转 许编译安装ffmpeg ;解决gif转mp4转换后无法播放问题
1. 升级ffmpeg 到 6.0.12. 设置比特率1M3. 对于小的gif,放大目标尺寸到宽度640。原创 2023-11-16 10:39:33 · 874 阅读 · 0 评论 -
M4Singer Ubuntu 4060ti16G 笔记【2】
Also please ensure that your antivirus or firewall is not blocking the binary file located at: /home/yeqiang/下载/ai/M4Singer/code/venv3712/lib/python3.7/site-packages/gradio/frpc_linux_amd64_v0.2。"AP你要相信AP相信我们会像童话故事里AP",启动一段时间后,有警告信息。原创 2023-10-09 15:20:46 · 557 阅读 · 0 评论 -
M4Singer Ubuntu 4060ti16G 笔记
test_input_dir: , test_num: 0, test_prefixes: ['Alto-2#岁月神偷', 'Alto-2#奇妙能力歌', 'Tenor-1#一千年以后', 'Tenor-1#童话', 'Tenor-2#消愁', 'Tenor-2#一荤一素', 'Soprano-1#念奴娇赤壁怀古', 'Soprano-1#问春'], test_set_name: test, timesteps: 1000,CPU 运行模式: 32-bit, 64-bit。原创 2023-10-09 13:45:46 · 730 阅读 · 0 评论 -
M4Singer ubuntu 22.04 4060ti16g ModuleNotFoundError: No module named ‘gradio‘
You should consider upgrading via the '/home/yeqiang/下载/ai/M4Singer/code/venv3712/bin/python3 -m pip install --upgrade pip' command.原创 2023-10-09 13:43:46 · 973 阅读 · 0 评论
分享