【手把手包会】Python + Ollama + Qwen2 实现本地大语言模型简单调用

有网友问,能不能讲讲Python调用Ollama + Qwen2的方法。好!今天就来手把手教大家如何使用Python + Ollama + Qwen2 实现本地大语言模型简单调用。

Ubuntu、Ollama、Qwen2、Python安装方法不再讲解,自行看前期教程,只不过将安装模型的最后一步改为如下代码:

安装Qwen2 7B参数模型

ollama run qwen2

软件、硬件配置

我的软件配置:Win11 + WSL2 + Ubuntu + Ollama + Qwen2:7B + Python 3.12.3

我的硬件配置(无独显,请忽略我的配置,只是告诉大家,这么低就可以运行):

CPU:12th i5 - 12500

内存:16G

SSD硬盘:500G

详细安装教程

步骤 1: 准备环境

首先确保本地 PythonVisual Studio Code (我一直在使用的IDE)环境正常,然后安装所有必需的库,可以通过以下命令安装 langchain_community 和 langchain_core:

# 理论上安装langchain后,langchain_community和langchain_core会自动一并安装
pip install langchain
pip install langchain_community
pip install langchain_core

步骤 2: 启动Ollama服务

确保本地 Ubuntu 和 Ollama 服务正在运行,并且已经安装 Qwen2 模型。你可以通过以下命令启动 Ollama 服务:

# 我的已经正常启动,所以提示已经使用中
ollama serve
Error: listen tcp 127.0.0.1:11434: bind: address already in use

浏览器可以访问127.0.0.1:11434地址,显示如下,OK

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值