自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 收藏
  • 关注

原创 Windows 安装配置 Miniconda

很久以前详细介绍了在 Windows 如何安装 Anaconda,这次来试试体积更小的 Miniconda,本来不打算安装 conda 的,因为本机上期已经安装好了 uv,但由于需要部署 CosyVoice 这个框架,网上查了下资料,说是 CosyVoice 在 Windows 下只能使用 conda 环境来部署,也不知道是否是这样,不管如何,先按照先驱们的经验来。

2025-12-12 17:10:14 711

原创 Windows 安装 uv 并指定安装目录

前面在其他服务器环境基本都是用 Anaconda 虚拟环境隔离 Python 包,但由于近期 Anaconda 更新了使用条件,因此现下载 Anaconda 安装包需要先注册用户后才能下载,虽然可以通过在网址中加上 success 跳过注册步骤。加上 Pytorch 官方文档也都不推荐用 conda 了,两个 buff 叠加在一起,决定尝试下新的 Python 包管理工具:uv。uv 是由 Astral(同出品 Ruff 的团队)开发,主打极速安装和环境隔离,对比 Anacoda 有何优劣势?

2025-12-02 10:10:32 1306

原创 Tesla V100 在 Windows 下安装配置

最近开始折腾 V100 SXM2 转 PCIe 的改装涡轮卡,简单测试了下在 Ubuntu 下 ComfyUI Wan2.2 文生视频 FP8的视频速度,还不错,5秒视频200多秒。

2025-11-29 17:22:13 881

原创 ComfyUI 桌面版报错 CUDA error: operation not supported 解决方法

近期使用 Tesla V100 在 Windows 10 系统下做各 AI 框架搭建测试,由于之前都是在 Ubuntu 系统下通过源码编译的方式安装 ComfyUI,设置调整启动参数很方便,此次在 Windows 系统下安装了 ComfyUI 桌面版用起来有点懵,之前也没碰到这种报错,但好在通过一番研究找到解决方法。

2025-11-26 19:35:28 378

原创 Windows 安装 ComfyUI 桌面版

之前尝试了 ComfyUI 便携版的安装,本次尝试下桌面版的安装方式,目前 ComfyUI 安装方式有 3 种,具体如下:1.桌面版,适合普通用户,系统支持 Windows 和 MacOS,和普通的所有安装程序一样,通过操作界面傻瓜式的下一步下一步,直到安装完成,但官方为了追求稳定所以版本号会较为落后,安装过程同时还需要先安装 Git、Python、UV 等其他依赖,相对还是没那么简单。2.源码版,也就是手动源码编译安装,适合开发者,需要通过代码命令进行操作,能随时更新体验最新版。

2025-11-25 18:19:35 986

原创 ComfyUI 报错 CUDA out memory 解决方法

在使用 ComfyUI 的过程中,经常会碰到大名鼎鼎的 CUDA out memory 显存不够的的报错,如果你有仔细看报错信息中的说明,可以看到其实有解决方法:PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True。

2025-11-22 10:29:55 593 1

原创 Windows 一分钟快速安装 ComfyUI 便携版

在大家的认知里是否还停留在要安装 ComfyUI 只能通过命令进行源码编译安装,或者使用秋叶的第三方扩展包才能安装?随着 ComfyUI 的生态越来越好,ComfyUI 官方也推出了基于普通用户也能安装的程序,今天就教你 Windows 系统下一分钟快速安装 ComfyUI 最新的官方程序,没有显卡也能用 CPU 运行 ComfyUI。

2025-11-21 17:31:09 587

原创 Ubuntu 使用 NVFlash 更新 Nvidia 显卡 BIOS

如何给显卡更新升级 BIOS 版本?由于近期组装了一台四卡 V100 SXM2 16G NvLink 的服务器,其中有一张卡的 BIOS 版本与其他三张不同。

2025-10-29 17:48:05 1043

原创 Tesla V100 安装使用 vLLM 0.10.2 踩坑记录

等待了十分钟,安装成功了,很顺利!本版为目前最新的 v0.10.2 版本。预制安装方式不依赖本地的 CUDA Toolkit,所以安装成功后虚拟环境中的 CUDA 版本为 12.8,Pytorch 版本为 2.8.0。查了下原来是服务条款确认机制,解决方式有好几种,这里直接手动接受条款,毕竟咱个人使用,无所谓。多次调整参数后编译安装还是失败,放弃源码编译的安装方式。再次创建并激活环境就可以成功了。

2025-09-30 09:24:32 644

原创 AMD MI50 跑 ComfyUI Wan2.2 文生视频速度实测

相对于之前测试的 RTX 3090 用时 2 分钟左右 和 RTX 4090 用时仅需 1 分钟左右的生成视频速度,虽然它们不是同一级别,这样对比有些残忍,但 AMD MI50 这张卡生成时长确实有点久了,虽然显存够大,不用担心爆显存,能正常生成视频,但是也印证了《ComfyUI/Stable Diffusion 跑图/生图/生视频应该用什么显卡?显卡选购建议》这篇文章中引用 ComfyUI 官方不推荐 AMD 显卡的原因。

2025-09-28 11:47:08 1630

原创 AMD MI50 能跑 ComfyUI Wan2.2 文生视频吗?

本次失败大概率是因为内存的原因,因为 Wan2.2 高噪声和低噪声采样器运行后解码时都需要用到内存,此时内存占用都会大幅提升,本次卡在的界面就是在高噪声采样器生成后的解码阶段,内存无法满足,虽然也增加了虚拟内存,但似乎没有往虚拟内存里塞。等后续将物理内存增加到 64G 再尝试看看。

2025-09-20 10:41:56 1188

原创 ComfyUI/Stable Diffusion 跑图/生图/生视频应该用什么显卡?显卡选购建议

基于以上,如果你打算本底跑 ComfyUI、Stable Diffusion,建议配置大等于 16G 显存30系及以上的 N 卡,例如:RTX 4060 Ti 16GB、RTX 3090 24GB 等,因为随着绘图、视频模型越来越厉害,模型权重文件也会越来越大,所需的显存也将越来越大!虽然使用量化后的模型权重文件可以降低显存,但是生成的质量和速度都将会下降。多卡配置没有意义。

2025-09-16 18:38:59 2003

原创 英伟达显卡系列、架构与代表产品全览(更新至2025年)

NVIDIA显卡全系列解析:从消费级到AI计算 本文系统梳理了NVIDIA截至2025年的显卡产品线,涵盖三大系列: GeForce系列:主打游戏与创作,支持光线追踪和DLSS RTX专业系列:面向CAD/3D建模,强调稳定性和双精度计算 数据中心/AI系列:专为AI训练和大模型优化,如H100/B100 重点介绍了11代GPU架构演进: 从2006年的Tesla架构开创CUDA计算 到2017年Volta引入TensorCore 直至2024年Blackwell架构专为万亿参数模型设计 不同架构针对特定计

2025-09-12 18:12:50 15855

原创 Windows Ollama 开启局域网访问

Windwos 系统里 Ollama 部署运行的大模型接口默认情况下局域网其他电脑无法访问,如果要在另外一台调用使用大模型,该怎么办?研究后发现增加一个配置即可开启访问权限。

2025-08-23 15:29:41 581

原创 Nvidia Tesla V100 也到了被淘汰边缘吗?

​8 月 4 日,CUDA 13.0 发布!其中一个重大变化是:CUDA 13.0 取消了对计算能力(Compute Capability)7.5 之前的 GPU 的离线编译支持,V100 的未来也被正式按下了“淘汰倒计时”的按钮。

2025-08-21 10:34:14 2341

原创 Ubuntu 22.04 Tesla M40 安装 CUDA 11.8

本教程详细介绍了在Ubuntu 22.04系统下为Tesla M40显卡安装CUDA 11.8的步骤。由于CUDA 11.4不支持多卡调度,而CUDA 12.x存在兼容性问题,因此推荐使用CUDA 11.8。教程提供了两种安装方式,并选择了run包进行安装。安装过程中需注意取消Nvidia驱动的安装以避免冲突,并手动配置CUDA环境变量。最后,通过nvcc -V命令验证安装是否成功。

2025-05-12 18:34:45 1026

原创 Ubuntu 22.04 Tesla M40 安装 Nvidia 550 系列驱动

本教程详细介绍了在Ubuntu 22.04系统下使用Tesla M40显卡进行AI深度学习的环境搭建步骤。主要内容包括禁用Nouveau驱动、安装NVIDIA驱动、校验驱动安装情况以及卸载NVIDIA驱动的完整流程。教程还提供了相关命令和操作步骤,帮助用户解决可能遇到的异常情况,确保驱动安装和卸载的顺利进行。

2025-05-10 17:19:50 1340

原创 3500元组装一台 AI 深度学习服务器?

在2024年11月的汽车保养期间,作者在休息室偶遇一位资深基建工程师,后者因行业困境转向投资AI科技公司,激发作者对AI领域的深入思考。尽管作者已在日常工作中使用AI工具,但对AI原理知之甚少,决定通过实践入门AI,特别是通过低成本组装AI深度学习服务器。作者详细介绍了选择主板和显卡的过程,强调了根据个人需求进行选择的重要性,而不是盲目跟风。最终,作者选择了一块二手工作站级别的主板和四张Tesla M40显卡,总计投入不超过1000元,为未来的AI学习和实践打下基础。这一过程不仅锻炼了作者的硬件组装能力,也

2025-05-10 10:33:16 1209

原创 AMD 显卡安装使用 Stable Diffusion WEB UI

近期得空,想体验下 Stable Diffusion 生图,无奈公司配的电脑显卡是 AMD Radeon RX 6750 GRE 12G,看了很多教程好像用 A 卡无法跑 Stable Diffusion,要跑需要领型配置的步骤也很繁琐,抱着试一试的想法直接上手,没想到成功了!分享给需要的朋友!显卡:AMD Radeon RX 6750 GRE 12G系统:WIN10 22H2。

2025-04-10 09:43:33 1789

原创 如何在个人电脑(本地无网络情况下)使用 AI 大模型

3.接下来需要进行简单的设置,才能使用,进入设置-语言模型-Ollama,点击右侧的开关将其打开,同时打开“使用客户端请求模式”在模型列表的下方,点击“获取模型列表”,就会自动识别到刚才下载到本地的大模型,勾选使用,退出设置,新建聊天窗口,选择模型,即可使用了。2.安装成功后 Ollama 会自动运行,如果你的C盘空间堪忧,需要将大模型文件储存在其他盘符,请先在系统托盘点击右键-点击 Quit Ollama,退出程序,并执行第3、4步骤,否则请直接跳到第5步。下载,如果你的显卡是 AMD,

2025-03-27 15:09:54 1083

原创 AMD 显卡解锁 Ollama 支持:没有 N 卡也能跑大模型

当你用 AMD 显卡在本地使用 Ollama 跑 AI 大模型时,如果你仔细观察会惊讶的发现,它用的是 CPU 和内存,对你没有看错!因为之前都用 N 卡,装完使用 Ollama 或 Stable Diffusion 跑 AI 时默认就能调用 GPU,今天拿了一台 AMD Radeon RX 6750 GRE 12G 显卡的电脑试了下,才发现这个问题。

2025-03-27 14:31:37 2239

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除