本地安装和使用ollama deepseek

Ollama 是一个开源工具,专门用于在本地计算机上运行和操作大型语言模型(LLM)。它让用户能够轻松下载、管理和运行各种 AI 模型(如 LLaMA、Mistral 等),而无需复杂的配置或依赖云服务。

一、安装ollama

1.安装

- 访问 Ollama 的官方网站(https://ollama.ai/),下载适合你操作系统的安装包。

2.设置大语言模型下载目录

在 Windows 上(或者桌面上右键个性化,再搜索框里输入 环境)

打开“系统属性”:

  - 右键点击“此电脑”或“我的电脑”,选择“属性”。

  - 点击“高级系统设置”,然后点击“环境变量”。

在“系统变量”部分,点击“新建”:

  - 变量名:OLLAMA_MODELS

  - 变量值:E:\path\to\your\custom\directory(替换为你希望保存模型的目录路径)。

点击“确定”保存更改。

重新打开先关再打开 PowerShell 或命令提示符,使更改生效。

3.安装大语言模型

二、安装chatbox用户界面

Chatbox 是一个开源的桌面应用程序,专门用于与大型语言模型(如 OpenAI 的 GPT 系列、LLaMA、Mistral 等)进行交互。它提供了一个简洁、易用的图形界面,让用户能够轻松地与 AI 模型对话,而无需编写代码或使用复杂的命令行工具。访问 Chatbox网站https://chatboxai.app/zh,下载适合你操作系统的安装包。

三、手动在Ollama中手动导入大语言模型

步骤操作:

1. 准备模型文件

确保模型文件是Ollama支持的格式(如GGML、GGUF等),并已下载到本地。

2. 创建Modelfile

在模型文件所在目录下创建一个文件命名为:Modelfile,文件内容如下:

FROM E:\models\qwen2.5-7b-instruct-q4_0.gguf

将E:\models\qwen2.5-7b-instruct-q4_0.gguf替换为你模型文件的实际路径。

3. 导入模型

在终端中运行以下命令:

ollama create qwen2.5-7b -f E:\models\Modelfile

将qwen2.5-7b替换为实际的模型名称,E:\models\Modelfile替换为Modelfile的实际路径。

4. 验证导入

导入完成后,使用以下命令验证:

ollama list

确认模型已出现在列表中。

5. 运行模型

使用以下命令运行模型:

ollama run qwen2.5-7b

将qwen2.5-7b替换为你的模型名称。

注意事项

- 确保Ollama已安装并正常运行。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值