Ubuntu安装ollama,并运行ollama和通义千问,使用gradio做界面

部署运行你感兴趣的模型镜像

安装ollama

方式一:

访问网站连接,选中Linux,然后拷贝命令

在这里插入图片描述
打开cmd (使用快捷键 Ctrl+shift+T),并切换到 管理员模式
在这里插入图片描述
接着打入粘贴上面的命令,回车后自动安装

curl -fsSL https://ollama.com/install.sh | sh

在这里插入图片描述

方式二

打开cmd (使用快捷键 Ctrl+shift+T),并切换到 管理员模式
在这里插入图片描述
接着打入粘贴上面的命令,回车后自动安装

snap install ollama

在这里插入图片描述

下载安装模型

通过ollama,可以很容易下载大模型和创建大模型

在终端中打入,如下命令可以查看本机安装的大模型

ollama list 

在这里插入图片描述
可以看到本机有一个llama3.2的大模型

运行大模型

使用下面的命令,可以将相应的模型运行起来,
初次使用,会自动下载模型
如果想使用llama 3.2 就使用下面命令

ollama run llama3.2   

如果想使用中文模型比如通义千问

ollama run qwen

在这里插入图片描述

运行ollama服务

终端中打入

ollama serve

可以看到,会出现绑定的端口11434
在这里插入图片描述
打开浏览器,打开地址:
http://127.0.0.1:11434
可以看到ollama is running的字眼

前端的实现

前端我们使用python创建访问的接口,并使用gradio创建前端页面

python环境安装

首先安装python的环境

wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
#或者从清华源下载速度快
wget https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/Miniconda3-py39_24.9.2-0-Linux-x86_64.sh
bash Miniconda3-latest-Linux-x86_64.sh

下载miniconda
在这里插入图片描述
安装miniconda
然后按要求输入 yes
在这里插入图片描述
最后就能看到安装好的环境
在这里插入图片描述

修改pip国内源

修改pip下载的源为国内源,这样下载的速度更快,注意这里的路径记得替换成自己电脑安装miniconda的路径

/home/carl/miniconda3/bin/pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

在这里插入图片描述

前端页面搭建

首先安装依赖

/home/carl/miniconda3/bin/pip install gradio langchain langchain_community

可以看到会安装相应的依赖文件
在这里插入图片描述

测试前后端联通

接下来,桌面创建一个main.py,测试能否连接到后端

from langchain.llms import Ollama

llm = Ollama(model="llama3.2", base_url="http://127.0.0.1:11434")
response = llm("你好")
print(response)

保存后,运行如下命令

/home/carl/miniconda3/bin/python main.py

运行后,可以看到如下的输出,
这个就是ai的输出
在这里插入图片描述

设计完整的ui

前后端联通后,开始写一个简单的界面

import gradio as gr
from langchain.llms import Ollama

def chat_with_history(message, history):
    llm = Ollama(
        model="llama3.2",
        base_url="http://127.0.0.1:11434"
    )
    response = llm(message)
    return response

# 创建聊天界面
demo = gr.ChatInterface(
    fn=chat_with_history,
    title="Llama2 聊天助手",
    description="与 Llama2 模型进行对话",
    examples=["你好,请介绍一下你自己", "什么是人工智能?", "你能写代码吗?"],
)

if __name__ == "__main__":
    demo.launch(share=False)

保存代码后

/home/carl/miniconda3/bin/python main.py

运行后,可以看到绑定了一个本地的端口7860,在浏览器中打开,就能看到对应的界面
在这里插入图片描述
在这里插入图片描述

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

<think>好的,我现在需要帮助用户在Ubuntu系统中安装Ollama启动其对话界面。首先,我需要回忆一下用户提供的引用内容,特别是关于安装步骤依赖项的部分。引用[1]提到了Ollama是一个开源的大型语言模型工具,而引用[2]提到了使用pip安装依赖项的命令。不过用户的环境是Ubuntu,可能需要不同的步骤。 首先,我应该检查Ollama的官方文档,看看是否有针对Ubuntu安装指南。通常,Linux系统的安装可能涉及使用curl下载安装脚本,或者通过包管理器。例如,用户可能需要添加Ollama的仓库,然后用apt安装。不过,我之前记得Ollama提供了自动安装脚本,可以通过运行一个命令来安装。 然后,安装完成后,用户需要启动Ollama服务,可能需要使用systemctl命令来启用启动服务。接下来,用户需要运行模型,比如运行ollama run llama2这样的命令来下载启动对话界面。此外,用户可能还需要安装依赖项,比如Python环境,或者某些库,这可能需要用到pip安装requirements.txt,如引用[2]中提到的,但需要确认是否适用于Ubuntu环境。 需要注意的是,用户的题是关于Ubuntu的,而引用中的例子是Windows的,所以不能直接照搬。应该调整步骤以符合Ubuntu的系统要求,比如使用sudo权限运行安装脚本,使用apt安装必要的依赖库,如curl、wget等。 另外,确保在安装完成后,用户能够访对话界面,可能需要通过命令行或者浏览器访本地端口。例如,Ollama默认的API端口是11434,用户可以用curl测试或者使用web界面。 可能遇到的题包括权限不足、依赖项缺失、网络题导致模型下载失败等,需要提示用户如何处理,比如使用sudo,检查网络连接,或者手动安装依赖项。 最后,生成相关题需要考虑用户可能的后续需求,比如如何配置模型、管理多个模型、优化性能或集成到其他应用中。</think>以下是在Ubuntu系统中安装Ollama启动对话界面的分步指南: ### 一、安装Ollama核心服务 1. 通过官方脚本安装(推荐) ```bash curl -fsSL https://ollama.com/install.sh | sh ``` 安装完成后会自动注册systemd服务[^1] 2. 验证安装状态 ```bash systemctl status ollama # 若未启动则执行 sudo systemctl enable --now ollama ``` ### 二、配置运行环境 1. 安装基础依赖 ```bash sudo apt install -y python3-pip python3-venv ``` 2. 创建虚拟环境 ```bash python3 -m venv ollama-ui cd ollama-ui && source bin/activate ``` 3. 安装Python依赖 ```bash pip install ollama gradio # 包含Web界面依赖[^2] ``` ### 三、运行对话界面 1. 启动核心服务 ```bash sudo systemctl start ollama ``` 2. 下载语言模型(以Llama2为例) ```bash ollama pull llama2 ``` 3. 启动Web界面 ```bash ollama serve & # 后台运行API服务 python -m gradio chat_interface.py # 启动对话界面 ``` 4. 访界面 浏览器打开`http://localhost:7860` ### 四、验证安装 ```bash curl http://localhost:11434/api/generate -d '{ "model": "llama2", "prompt": "为什么天空是蓝色的?" }' ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值