Ollama Linux部署与应用LLama 3

Ollama Linux部署与应用LLama 3

Linux下Ollama的安装与配置

简介

Ollama提供了一种简单的安装方法,只需一行命令即可完成安装,但是对于想要更深入了解和自定义安装的用户,同时也提供了手动安装的步骤。

系统要求

在开始部署之前,请确保您的系统满足以下基本要求:

硬件配置: - 处理器:建议8核以上 - 内存:最低16GB,建议32GB - 存储空间:至少预留50GB可用空间 - 操作系统:支持Linux、MacOS或Windows - 软件要求:已安装最新版本的Ollama - 网络连接:需要稳定的网络环境用于下载模型

一键安装
curl -fsSL https://ollama.com/install.sh | sh
#也许需要相应的权限才能安装,可以使用命令
sudo curl -fsSL https://ollama.com/install.sh | sh
手动安装
# 下载Ollama二进制文件
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama
sudo chmod +x /usr/bin/ollama
# 有可能是其它目录,可以查看服务对应的目录, 例如我机器的目录在/usr/local/bin
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/local/bin/ollama
sudo chmod +x /usr/local/bin/ollama

# 创建Ollama用户
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama

将Ollama设置为启动服务
创建服务文件 – /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3

Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_MODELS=/data/app/models/ollama"

[Install]
WantedBy=default.target
模型目录授权
chown -R ollama:ollama  /data/app/models/ollama
重载配置并启动
systemctl daemon-reload
systemctl start ollama

Docker安装ollama
docker run -d --name ollama -v /home/docker/ollama:/root/.ollama -p 11434:11434 ollama/ollama

# /root/.ollama : 模型默认存储路径,需要持久化。
更新Ollama

随着Ollama的不断更新和改进,定期更新您的Ollama安装是非常重要的。更新Ollama的过程与安装类似,可以通过运行安装脚本或直接下载最新的二进制文件来完成:

一键更新
curl -fsSL https://ollama.com/install.sh | sh
手动更新
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/local/bin/ollama
sudo chmod +x /usr/local/bin/ollama
卸载Ollama

如果决定不再使用Ollama,可以通过以下步骤将其完全从系统中移除:

(1)停止并禁用服务:

sudo systemctl stop ollama
sudo systemctl disable ollama

(2)删除服务文件和Ollama二进制文件:

sudo rm /etc/systemd/system/ollama.service 
sudo rm $(which ollama)

(3)清理Ollama用户和组:

sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama

通过以上步骤,不仅能够在Linux平台上成功安装和配置Ollama,还能够灵活地进行更新和卸载。

Ollama下载模型

下载llama3
ollama pull llama3:8b
Ollama的模型库

模型库地址:https://ollama.com/search

相关命令
# 查看当前已经下载的模型列表
ollama list

# 下载模型(去选择你喜欢的模型吧)
ollama pull Mistral

# 修改监听端口(默认监听在127.0.0.1,为了能被外部访问到,需要修改)
$env:ollama_host = "0.0.0.0:11434"

# 开启服务
ollama serve

验证可用

curl http://192.168.1.55:11434/api/chat -d '{
  "model": "llama3:8b",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}'

部署 Open-webui(可选)

docker run -d -p 8080:8080 -e OLLAMA_BASE_URL=http://你服务器的ip地址:11434 -v /home/docker/open-webui:/app/backend/data --name open-webui --restart always swr.cn-southwest-2.myhuaweicloud.com/llody/open-webui/open-webui:main
### Linux服务器上部署和运行LLaMA3大模型 #### 下载并配置Git LFS模型库 为了在Linux环境中成功部署Meta-Llama 3 AI大模型,需先安装Git Large File Storage (LFS),这有助于管理大型文件版本控制。具体操作如下: ```bash git lfs install git lfs clone https://www.modelscope.cn/baicai003/Llama3-Chinese_v2.git ``` 上述命令用于初始化Git LFS,并克隆指定路径下的Llama3中文版v2模型仓库[^1]。 #### 修改Python脚本以适应部署需求 针对已下载的模型,在`/root/data/workspace/llama3-Chinese-chat/deploy/python/chat_demo.py` 文件中进行必要的调整,确保其能够适配当前环境设置以及满足特定功能需求[^2]。 #### 获取Gradio演示界面并项目集成 为了让用户更直观地测试交互效果,还需获取由第三方提供的Gradio框架构建的应用实例,并将其放置于目标目录下: ```bash wget https://github.com/ymcui/Chinese-LLaMA-Alpaca/blob/main/scripts/inference/gradio_demo.py mv gradio_demo.py ~/Workspace/Llama2/ ``` 完成此步之后,通过执行以下指令来查看GPU资源分配情况及启动应用服务: ```bash nvidia-smi python gradio_demo.py \ --base_model=Llama2-chat-13B-Chinese-50W \ --tokenizer_path=Llama2-chat-13B-Chinese-50W \ --load_in_8bit \ --gpus=0 ``` 这里需要注意的是参数的选择应依据实际硬件条件和个人偏好而定[^3]。 #### 安装依赖项优化方案 考虑到国内网络状况可能导致官方PyPI源访问缓慢的问题,建议采用清华大学开源软件镜像站作为替代来源加快包安装过程: ```bash pip install -e . -i https://pypi.tuna.tsinghua.edu.cn/simple ``` 该方法不仅提高了效率还减少了因连接不稳定带来的失败风险[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

llody_55

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值