有网友问,能不能讲讲Python调用Ollama + Qwen2的方法。好!今天就来手把手教大家如何使用Python + Ollama + Qwen2 实现本地大语言模型简单调用。
Ubuntu、Ollama、Qwen2、Python安装方法不再讲解,自行看前期教程,只不过将安装模型的最后一步改为如下代码:

安装Qwen2 7B参数模型
ollama run qwen2
软件、硬件配置
我的软件配置:Win11 + WSL2 + Ubuntu + Ollama + Qwen2:7B + Python 3.12.3
我的硬件配置(无独显,请忽略我的配置,只是告诉大家,这么低就可以运行):

CPU:12th i5 - 12500
内存:16G
SSD硬盘:500G
详细安装教程
步骤 1: 准备环境

首先确保本地 Python 与 Visual Studio Code (我一直在使用的IDE)环境正常,然后安装所有必需的库,可以通过以下命令安装 langchain_community 和 langchain_core:
# 理论上安装langchain后,langchain_community和langchain_core会自动一并安装
pip install langchain
pip install langchain_community
pip install langchain_core
步骤 2: 启动Ollama服务

确保本地 Ubuntu 和 Ollama 服务正在运行,并且已经安装 Qwen2 模型。你可以通过以下命令启动 Ollama 服务:
# 我的已经正常启动,所以提示已经使用中
ollama serve
Error: listen tcp 127.0.0.1:11434: bind: address already in use
浏览器可以访问127.0.0.1:11434地址,显示如下,OK 。

最低0.47元/天 解锁文章
794

被折叠的 条评论
为什么被折叠?



