在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)
Mac Mini M4 配备了苹果自家研发的 M1/M2/M4 芯片,具有强大的处理能力,能够支持本地跑一些大模型,尤其是在使用如 Ollama、Llama、ComfyUI 和 Stable Diffusion 这类 AI 相关工具时,性能表现非常好。在 Mac Mini M4 上本地运行大模型是一项具有挑战性的任务,但通过合理的资源管理和配置,可以使得这些强大的工具和框架运行流畅。在 ComfyUI 中,选择你想要的模型(例如 Stable Diffusion),输入文本提示,点击“生成”按钮即可。
AMD显卡在windows中通过WSL安装使用stable diffusion(WebUI和ComfyUI)
在vim中将文件中“base_path: path/to/stable-diffusion-webui/”改为“base_path: /home/用户名/stable-diffusion-webui/”注意:ubuntu24.04和ubuntu22.04两者下载的包不一样,ubuntu24.04对应noble,ubuntu22.04对应jammy,具体下载网址为。(根据安装的Python版本确定安装包,安装包的名字中cpxxx为安装python版本,例如cp310对应python3.10版本)


