Ollama 内网部署(解决由于SSL问题无法直接部署的问题)

基于8*4090物理机部署

由于SSL问题无法解决,手动安装:

通过本地电脑手动下载linux对应的安装包,并使用filezilla工具上传到/data1/目录:

1、使用filezilla上传tgz文件到linux服务器后台;

2、执行下面的命令解压
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
ollama版本更新,也是执行上面的操作;

配置ollama为系统服务(修改可访问范围、模型存储地址、支持通过系统命令启停)

vi /etc/systemd/system/ollama.service

[Service]

Environment="OLLAMA_HOST=0.0.0.0:11434"

Environment="OLLAMA_MODELS=/data1/.ollama/models"

Environment="OLLAMA_DEBUG=1"

Environment="OLLAMA_FLASH_ATTENTION=1"

ExecStart=/usr/bin/ollama serve

User=root

Group=root

Restart=always

RestartSec=3

Environment="PATH=$PATH"

[Install]

WantedBy=multi-user.target

[Unit]

Description=Ollama Service

After=network-online.target

启停命令

systemctl daemon-reload (/etc/systemd/system/ollama.service 被改动后,需要执行该命令)

systemctl start ollama

systemctl stop ollama

常用命令

命令 说明

ollama serve 启动 ollama 服务

ollama create 根据一个 Modelfile 创建一个模型

ollama show 显示某个模型的详细信息

ollama run 运行一个模型

ollama stop 停止一个正在运行的模型

ollama pull 从一个模型仓库(registry)拉取一个模型

ollama push 将一个模型推送到一个模型仓库

ollama list 列出所有模型

ollama ps 列出所有正在运行的模型

ollama cp 复制一个模型

ollama rm 删除一个模型

ollama help 获取关于任何命令的帮助信息

下载模型

Ollama测试地址

http://IP:11434/

远程调用ollama成功

但CPU满载,内存占用350G:

常见问题

Error: llama runner process has terminated: CUDA error: out of memory
  current device: 0, in function ggml_backend_cuda_device_get_memory at //ml/backend/ggml/ggml/src/ggml-cuda/ggml-cuda.cu:2898
  cudaMemGetInfo(free, total)
//ml/backend/ggml/ggml/src/ggml-cuda/ggml-cuda.cu:73: CUDA error

解决方案:待补充

### DeepSeek在Linux服务器内网中的安装与配置 #### 一、准备阶段 为了确保顺利部署,需确认服务器已具备必要的依赖项和环境变量设置。对于网络受限的情况,应预先设定HTTP/HTTPS代理以便获取所需资源。 针对Linux服务器上的代理设置可采用如下指令完成: ```bash export http_proxy=http://10.10.xxx.18:xxxx && \ export https_proxy=http://10.10.xxx.18:xxxx ``` 此操作允许后续命令能够绕过防火墙限制访问互联网资源[^1]。 #### 二、Ollama组件安装 鉴于DeepSeek构建于Ollama之上,则首要任务便是按照官方指引安装Ollama框架。具体做法是从指定URL下载并执行安装脚本: ```bash curl -fsSL https://ollama.com/install.sh | sh ``` 上述过程会自动处理软件包的下载及其初始化工作,从而简化了前期准备工作流程。 #### 三、DeepSeek的具体部署 一旦完成了Ollama的基础架构建设之后,下一步就是引入DeepSeek模型本身。考虑到安全性以及效率因素,建议利用Docker容器化技术来承载整个应用栈。这不仅有助于隔离不同版本间的冲突问题,同时也便于后期维护升级。 根据已有经验分享,在拥有GPU加速支持的前提下,可以参照特定文档说明进一步优化性能表现;与此同时,借助Dify作为中介层提供图形界面管理入口,方便用户远程操控和服务监控[^2]。 #### 四、开放WebUI接口 为了让外部设备能安全有效地连接至内部部署的服务端口,通常还需要额外架设一层反向代理机制——比如Nginx或HAProxy等工具。它们负责转发来自公网请求到私有IP地址对应的监听位置,并实施必要的身份验证措施防止未授权访问行为发生。 最后值得注意的是,所有涉及敏感数据传输环节都应当启用SSL/TLS加密协议加以保护,以此保障通信链路的安全性和隐私性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值