【Ubuntu】【QWen】【Ollama】在Ubuntu用ollama安装qwen的全部步骤
在 Ubuntu 上,
使用 Python3 venv
创建虚拟环境,
并安装 Ollama 和 Qwen 模型的步骤:
1. 创建 Python3 虚拟环境
-
安装 Python3 和 venv:
确保系统已安装 Python3 和venv
模块。
运行以下命令安装:sudo apt update sudo apt install python3 python3-venv
-
创建虚拟环境:
在终端中,
进入你希望创建虚拟环境的目录(我把虚拟环境,都放在Document中,方便管理)
然后,运行以下命令,创建虚拟环境(假设虚拟环境名为qwen_env
)python3 -m venv qwen_env
-
激活虚拟环境: 激活虚拟环境
source qwen_env/bin/activate
-
安装
requests
库: 在激活的虚拟环境中,安装requests
库:pip install requests
2. 安装 Ollama
-
安装 Ollama: 在终端中运行以下命令安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
-
启动 Ollama 服务: 安装完成后,启动 Ollama 服务
ollama serve
3. 安装并运行 Qwen 模型
-
拉取并运行 Qwen 模型: 在终端中,运行以下命令,拉取并运行 Qwen2.5-1.5B 模型
也可以直接安装最新版,不带版本号即可。 -
ollama run qwen2.5:1.5b
4. 编写 Python 脚本与 Qwen 模型交互
在虚拟环境中,
创建一个 Python 脚本(例如 test_qwen.py
),
并使用以下代码与 Qwen 模型交互:
import requests
OLLAMA_URL = "http://127.0.0.1:11434"
response = requests.post(
f"{OLLAMA_URL}/api/generate",
json={
"model": "qwen2.5:1.5b",
"prompt": "你的问题或提示",
"max_tokens": 100
}
)
# 打印原始响应内容
print("原始响应内容:")
print(response.text)
# 尝试解析 JSON
try:
data = response.json()
print("解析后的 JSON 数据:")
print(data["response"])
except json.JSONDecodeError as e:
print(f"JSON 解析错误: {e}")
5. 运行脚本
在激活的虚拟环境中,运行脚本:
python3 test_qwen.py
注意事项
-
确保 Ollama 服务已启动并运行正常。
-
如果在运行脚本时遇到问题,可以先检查 Ollama 的响应内容是否符合预期。
-
如果需要安装其他 Python 库,可以在激活虚拟环境后,使用
pip install <库名>
命令。
通过以上步骤,
可以在 Ubuntu 上,
使用 Python3 venv
创建虚拟环境,
并安装 Ollama 和 Qwen 模型,
进而通过 Python 脚本与模型进行交互。