Ollama
宇宙有只 AGI
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
LLM | Ollama WebUI 安装使用(pip 版)
在 Python 3.11 环境下,使用 conda 创建环境并安装。启动 ollama 和 open-webui 服务后,通过 http://127.0.0.1:8080 访问 WebUI,首次启动会从 Hugging Face 下载所需文件。用户注册后可选择模型进行对话。原创 2024-09-27 23:45:20 · 2134 阅读 · 0 评论 -
LLM | 迁移 ollama 模型文件到新机器(支持离线运行)
迁移 ollama 模型文件到新机器的步骤:1. 拷贝 manifests 文件和 blobs 文件。2. 运行。原创 2024-09-27 22:50:17 · 1945 阅读 · 0 评论 -
LLM | Ollama 安装、运行大模型(CPU 实操版)
Ollama 安装与运行大模型步骤:首先通过 Homebrew 安装 Ollama,验证安装成功后启动服务端(默认端口 11434),然后在新终端运行指定模型(如 Qwen2 的 0.5B Chat 模型)原创 2024-09-23 23:57:36 · 1293 阅读 · 0 评论
分享