安装
要安装 Ollama,请运行以下命令:
curl -fsSL <https://ollama.com/install.sh> | sh
手动安装
下载并解压软件包:
curl -L <https://ollama.com/download/ollama-linux-amd64.tgz> -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
启动 Ollama:
ollama serve
在另一个终端中,验证 Ollama 是否正在运行:
ollama -v
AMD GPU 安装
如果您有 AMD GPU,还请下载并提取附加的 ROCm 包:
curl -L <https://ollama.com/download/ollama-linux-amd64-rocm.tgz> -o ollama-linux-amd64-rocm.tgz
sudo tar -C /usr -xzf ollama-linux-amd64-rocm.tgz
ARM64 安装
下载并解压 ARM64 专用软件包:
curl -L <https://ollama.com/download/ollama-linux-arm64.tgz> -o ollama-linux-arm64.tgz
sudo tar -C /usr -xzf ollama-linux-arm64.tgz
添加 Ollama 作为启动服务(推荐)
为 Ollama 创建用户和组:
sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)
在以下位置创建服务文件/etc/systemd/system/ollama.service:
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"[Install]
WantedBy=default.target
然后启动服务:
sudo systemctl daemon-reload
sudo systemctl enable ollama
安装 CUDA 驱动程序(可选)
下载并安装CUDA。
通过运行以下命令来验证驱动程序是否已安装,该命令将打印有关 GPU 的详细信息:
nvidia-smi
安装 AMD ROCm 驱动程序(可选)
下载并安装ROCm v6。
启动 Ollama
启动 Ollama 并验证它是否正在运行:
sudo systemctl start ollama
sudo systemctl status ollama
笔记
虽然 AMD 已将amdgpu驱动程序贡献给官方 Linux 内核源代码,但版本较旧,可能不支持所有 ROCm 功能。我们建议您从 https://www.amd.com/en/support/linux-drivers安装最新的驱动程序,以便为您的 Radeon GPU 提供最佳支持。
更新
通过再次运行安装脚本来更新 Ollama:
curl -fsSL <https://ollama.com/install.sh> | sh
或者重新下载 Ollama:
curl -L <https://ollama.com/download/ollama-linux-amd64.tgz> -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
安装特定版本
使用安装脚本中的环境变量来安装特定版本的 Ollama,包括预发布版本。您可以在发布页面OLLAMA_VERSION中找到版本号。
例如:
curl -fsSL <https://ollama.com/install.sh> | OLLAMA_VERSION=0.3.9 sh
查看日志
要查看作为启动服务运行的 Ollama 的日志,请运行:
journalctl -e -u ollama
卸载
删除 ollama 服务:
sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service
从 bin 目录中删除 ollama 二进制文件(/usr/local/bin、/usr/bin或/bin):
sudo rm $(which ollama)
删除下载的模型和 Ollama 服务用户和组:
sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama
结尾:样例小程序二维码,我自己做的一个免费好用的【随机选择决定转盘工具】小程序,欢迎扫码体验呦!

谢谢阅读!~~
3972

被折叠的 条评论
为什么被折叠?



