本地部署大模型

本地部署大模型

ollama介绍

Ollama的作用

Ollama是一个轻量级的大型语言模型(LLM)软件引擎,用于快速部署和运行大型语言模型。它负责模型的加载和服务器端的推理,确保模型能够快速响应请求。

本地部署DeepSeek时需要Ollama的原因

在本地部署DeepSeek时,需要安装和配置Ollama,因为它负责以下任务:
‌模型文件的解析和加载‌:Ollama负责解析和加载DeepSeek所需的模型文件。
‌本地服务器端的推理逻辑‌:Ollama处理服务器端的推理逻辑,确保模型能够快速响应请求。

ollama安装

前提:需要外网哦

1、下载OllamaSetup

地址:https://ollama.com/
在这里插入图片描述

2、双击安装

点击install,等待安装
在这里插入图片描述

3、验证是否安装成功

安装完之后,打开cmd窗口,验证是否安装成功

ollama -v

在这里插入图片描述

4、下载模型

下载deepseek的1.5b的大模型,太大的本地跑不了

ollama pull deepseek-r1:1.5b

在这里插入图片描述

5、运行模型模型

下载完之后可以运行deepseek模型

ollama run deepseek-r1:1.5b

可以问他问题
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Java知识技术分享

感谢支持!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值