Linux搭建个人大模型RAG-(ollama+deepseek+anythingLLM)

本文是远程安装ollama + deepseek,本地笔记本电脑安装anythingLLM,并上传本地文件作为知识库。

1.安装ollama

安装可以非常简单,一行命令完事。(有没有GPU,都没有关系,自动下载合适的版本)

cd 到合适的文件目录

下载安装一键安装文件

curl -fsSL https://ollama.com/install.sh -o ollama_install.sh

赋权

chmod +x ollama_install.sh

执行自动下载&安装

sh ollama_install.sh

ps:这里下载可能会很感人,所以有人说可以替换ollama下载为github下载:

替换一键安装文件中的下载网址:注意修改下边命令行中蓝色字体最新的版本

sed -i 's|https://ollama.com/download/|https://github.com/ollama/ollama/releases/download/v0.5.7/|' ollama_install.sh

但是我发现我这里还是用ollama快一点

安装完成后

查看ollama 命令

ollama -help

命令:

ollama --help

Available Commands:

  serve       Start ollama

  create      Create a model from a Modelfile

  show        Show information for a model

  run         Run a model

  stop        Stop a running model

  pull        Pull a model from a registry

  push        Push a model to a registry

  list        List models

  ps          List running models

  cp          Copy a model

  rm          Remove a model

  help        Help about any command

Flags:

  -h, --help      help for ollama

  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

配置ollama服务

暂停服务

systemctl stop ollama

修改ollama.service 文件,配置上远程访问

切换到ollama.service 路径

cd /etc/systemd/system

vi ollama.service 

增加:

Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"

重启服务

systemctl daemon-reload

systemctl restart ollama

修改后的 ollama.service 文件内容:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=root
Group=root

Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/data/tools/zookeeper/current/bin:/data/tools/scala/current/bin:/data/tools/kafka/current/bin:/data/tools/hadoop/current/bin:/data/tools/hadoop/current/sbin:/data/tools/hive/current/bin:/data/tools/spark/current/bin:/data/tools/spark/current/sbin:/data/tools/eagle/current/bin:/data/tools/flink/current/bin:/data/tools/maven/current/bin:/opt/jdk-11.0.15/bin:/root/bin"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"


[Install]
WantedBy=default.target

ps: 注意这两句不要加到最后边,要加到 [Service] 后边

验证远程访问

用本地PC笔记本电脑的浏览器,访问下远程部署ollama服务的机器,

http://远程机器IP:11434

出现

Ollama is running 就OK了

2.安装deepseek

下载deepseek模型

ollama pull deepseek-r1:7b

或者 deepseek-r1:1.5b

(别管有没有GPU,有16G内存就上7B)

报错:连接超时,重新下载即可

查看ollama 安装大模型目录

ollama list

本地测试模型,启动

ollama run deepseek-r1:1.5b

对话效果:

1.5b速度还是可以的,但是相当纸张..

关闭的话

ollama stop deepseek-r1:1.5b

远程访问的话,只需要下载好就行了,ollama服务开启就OK, systemctl restart ollama

不需要run 起来模型

后边安装的anythingLLM 会自动连接上ollama,并访问到ollama已经安装的模型

3.安装anythingLLM

本地笔记本电脑安装anythingLLM

AnythingLLM | The all-in-one AI application for everyone

我是window 64位

下载后安装

我这里选所有用户

找个位置

选择LLM模型,

如果机器性能一般的话,可以把 ollama keep alive 时长调大,让机器慢慢运算

LLM提供商 选ollama

然后在 Ollama Base URL 输入远程部署的ollama 机器IP和 端口

如果连接成功的话,Ollama Model  会自动显示已经下载好的模型。

maxtoken 选项可以填大一点

对话测试

上传本地文件

选择文件上传

移动文件给对话工程

至此大功告成!!!

Linux版本

下载安装文件

curl -fsSL https://cdn.anythingllm.com/latest/installer.sh 

切换非root用户

su 普通user

不然会报错:>> This script should not be run as root. Please run it as a regular user.

查看当前用户列表: ls /home

执行安装命令

sh installer.sh

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值