【Ubuntu】【QWen】【Ollama】在Ubuntu用ollama安装qwen的全部步骤

【Ubuntu】【QWen】【Ollama】在Ubuntu用ollama安装qwen的全部步骤

在 Ubuntu 上,

使用 Python3 venv 创建虚拟环境,

并安装 Ollama 和 Qwen 模型的步骤:

1. 创建 Python3 虚拟环境

  1. 安装 Python3 和 venv
    确保系统已安装 Python3 和 venv 模块。
    运行以下命令安装:

    sudo apt update
    sudo apt install python3 python3-venv
  2. 创建虚拟环境
    在终端中,
    进入你希望创建虚拟环境的目录(我把虚拟环境,都放在Document中,方便管理)
    然后,运行以下命令,创建虚拟环境(假设虚拟环境名为 qwen_env

    python3 -m venv qwen_env
  3. 激活虚拟环境: 激活虚拟环境

    source qwen_env/bin/activate
  4. 安装 requests: 在激活的虚拟环境中,安装 requests 库:

    pip install requests

2. 安装 Ollama

  1. 安装 Ollama: 在终端中运行以下命令安装 Ollama

    curl -fsSL https://ollama.com/install.sh | sh
  2. 启动 Ollama 服务: 安装完成后,启动 Ollama 服务

    ollama serve

3. 安装并运行 Qwen 模型

  1. 拉取并运行 Qwen 模型: 在终端中,运行以下命令,拉取并运行 Qwen2.5-1.5B 模型
    也可以直接安装最新版,不带版本号即可。

  2. ollama run qwen2.5:1.5b

        

4. 编写 Python 脚本与 Qwen 模型交互

    在虚拟环境中,
    创建一个 Python 脚本(例如 test_qwen.py),
    并使用以下代码与 Qwen 模型交互:

import requests

OLLAMA_URL = "http://127.0.0.1:11434"

response = requests.post(
    f"{OLLAMA_URL}/api/generate",
    json={
        "model": "qwen2.5:1.5b",
        "prompt": "你的问题或提示",
        "max_tokens": 100
    }
)

# 打印原始响应内容
print("原始响应内容:")
print(response.text)

# 尝试解析 JSON
try:
    data = response.json()
    print("解析后的 JSON 数据:")
    print(data["response"])
except json.JSONDecodeError as e:
    print(f"JSON 解析错误: {e}")

5. 运行脚本

在激活的虚拟环境中,运行脚本:

python3 test_qwen.py

注意事项

  • 确保 Ollama 服务已启动并运行正常。

  • 如果在运行脚本时遇到问题,可以先检查 Ollama 的响应内容是否符合预期。

  • 如果需要安装其他 Python 库,可以在激活虚拟环境后,使用 pip install <库名> 命令。

通过以上步骤,
可以在 Ubuntu 上,
使用 Python3 venv 创建虚拟环境,
并安装 Ollama 和 Qwen 模型,
进而通过 Python 脚本与模型进行交互。

### Ubuntu安装和配置 Ollama Qwen #### 下载并安装 Ollama 对于希望在 Ubuntu 系统上部署 Ollama 的用户来说,可以通过命令行快速完成安装过程。具体操作如下: ```bash curl -fsSL https://ollama.com/install.sh | sh ``` 这条指令会自动下载最新的安装脚本并且执行它来安装 Ollama[^1]。 #### 配置环境变量 为了使 Ollama 能够正常工作,在某些情况下可能需要设置特定的环境变量。例如,可以使用 `launchctl` 来设定全局可用的环境变量: ```bash launchctl setenv OLLAMA_HOST "0.0.0.0" ``` 这一步骤有助于指定服务监听地址以便更好地控制访问权限[^4]。 #### 添加 Open Web UI 支持 如果想要增强用户体验,还可以考虑集成 Open Web UI 功能到 Ollama 中去。虽然具体的实现细节未在此提及,但是通常涉及修改配置文件或是利用额外插件/扩展的方式来进行添加。 #### 处理大型模型文件 当涉及到像 Qwen 这样的复杂 AI 模型时,由于其体积较大,初次加载可能会花费较长时间。因此建议保持网络连接稳定,并给予足够的时间让系统完成资源获取。完成后可通过以下命令确认模型状态: ```bash ollama list ``` 此命令用于展示当前已经成功拉取下来的各个模型列表及其相关信息[^3]。 #### 解决启动问题 针对提到的关于不同 shell 启动失败的情况(如 PowerShell 可以而 Bash 不行),这类现象往往是因为路径差异或者是依赖项缺失所引起的。确保所有必要的 Python 库都已经正确安装是非常重要的。比如,如果是基于 LangChain-Chatchat 构建的应用,则应该先运行下面这个 pip 命令来更新或安装所需的软件包: ```bash pip install langchain-chatchat -U ``` 此外,还需注意检查是否有其他潜在因素影响到了程序的正常启动,例如防火墙规则、端口冲突等[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值