本地使用大模型:Ollama+open-webui+AnythingLLM(Windows+linux)

本地使用开源大模型

随着大模型的发展,大量的开源模型可以被直接使用。大模型的使用可以选择在云端或者在本地,如果本地存储空间尚可,而且模型需求不是很大的话,我们可以选择在本地部署一个大模型来使用。针对特定的任务需求,进一步在本地去微调我们的大模型。我在windows和linux上都尝试了一遍,这里记录一下过程。

Windows部署

1.下载ollama

Ollama 是一个开源的、用于本地部署 AI 模型的框架,它的目标是让开发者能够在本地机器上运行大型的语言模型(如 GPT 系列模型、LLAMA 模型等),而不依赖于云端 API 或外部服务。通过 Ollama,用户可以更加灵活地控制和优化 AI 模型的使用,同时避免高昂的 API 调用费用和潜在的隐私风险。

下载地址,选择windows系统,下载后双击开始安装即可。

下载成功后,默认模型保存地址是C盘,如果想改到其他盘,需要添加环境变量:OLLAMA_MODELS=D:\files,设置后打开cmd命令行,输入命令set,输出框里看到设置的环境变量即说明已经生效。(或者可以先下载个小模型验证一下存储地址是否改变。)
验证是否下载成功:cmd打开命令行,输入ollama --version,输出版本号,即说明安装成功。这时不要关闭命令行窗口,之后的操作都在这

### 使用 AnythingLLM安装与配置 #### 安装依赖包 为了确保顺利安装并运行AnythingLLM,在Linux环境中建议先更新系统软件源,并安装必要的依赖库。对于基于RPM的发行版可以使用`yum`命令来管理软件包: ```bash sudo yum update -y && sudo yum install -y python3-pip git wget curl gcc make automake autoconf libtool ``` 如果遇到依赖关系问题,可以通过附加参数跳过损坏的依赖项[^1]。 #### 下载和安装 AnythingLLM 获取最新版本的AnythingLLM通常有两种方式:通过官方仓库克隆项目或者下载预编译二进制文件。这里以Git克隆为例说明操作过程: ```bash git clone https://github.com/anythingllm/anythingllm.git ~/anythingllm cd ~/anythingllm pip3 install --upgrade pip setuptools wheel pip3 install . ``` #### 配置环境变量 某些情况下可能需要设置特定于Java应用程序的环境变量。这可以在启动脚本中完成,也可以直接在shell会话里定义这些变量[^2]。例如: ```bash export JAVA_TOOL_OPTIONS="-Djava.awt.headless=true" ``` #### 调整网络配置(可选) 如果有特殊需求调整系统的默认网络行为,则需编辑相应的配置文件。注意检查是否存在指定路径下的配置文件,并按需移除它[^3]。 ```bash if [ -f /etc/sysconfig/networking/profiles/default/network ]; then sudo rm -rf /etc/sysconfig/networking/profiles/default/network fi ``` #### 启动服务 最后一步就是按照官方文档指引启动AnythingLLM的服务端口,默认监听本地8080端口。具体指令如下所示: ```bash python3 -m anythingllm.server & ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值