【基于ollama本地搭建开源大模型(qwen、deepseek等)教程分享 - 新手教程】

【基于ollama本地搭建开源大模型教程分享 - 新手教程】

  • 精细化操作教程,助力新手快速上手,按照教程即可体验,快速搭建一个本地大模型

  • 本次演示时使用最小的模型,可以根据自己的电脑配置,灵活调整合适的模型以及体量参数

  • 注意:从小体量开始,新手容易陷入配置误区,还没有了解和学习就先买设备

  • 先了解、体验 ,后期根据自己的需求再考虑硬件的升级

准备工作

一、下载软件及模型

1、电脑配置

  • 手头有什么配置的电脑可以先用,只要电脑配置不是特别古老,一般最小体量的模型还是可以搭建感受一下的
  • 实在不知道怎么看的初学者或者爱好者,可以直接把电脑配置丢给 通义千问、豆包、deepseek等,让他们给一个建议做个参考

2、软件准备

  • ollama
    anythingllm
    

3、下载安装ollama

  • 下载网址:

    https://ollama.com/
    

    访问网址,按照图片进行操作

在这里插入图片描述

选择适合自己的操作系统

在这里插入图片描述

下载好后直接双击安装,ollama默认的安装位置是c盘

  • 在这里插入图片描述

安装以后,电脑右下角会有一个“羊驼”类的一个图标

键盘上快键键 Windows + R , 输入cmd 调出dos窗口, 输入以下命令

  • ollama -v
    

    有版本显示则安装成功
    在这里插入图片描述

4、下载模型

  • 回到ollama官网

  • 点击Modes,选择不同的开源模型

  • 在这里插入图片描述

  • 选择想要的模型(这里以qwen2.5为例)

  • 在这里插入图片描述

-在这里插入图片描述

复制命令:

  • ollama run qwen2.5:1.5b
    
  • 直接在刚才的dos窗口中运行

  • 在这里插入图片描述

  • 等待安装完成,如图,即可进行简单的对话了

  • 在这里插入图片描述

  • 在这里插入图片描述

特别注意:

  • 模型及参数的选择不要一味的求大,很吃电脑的配置,可以先从小参数开始尝试!

参考:(deepseek-r1)

  • 其他的模型的安装流程都和上面的流程一样

  • dos窗口 cmd
    换为你要安装的模型对应参数指令

    ollama run deepseek-r1:1.5b
    
  • 例如:deepseek

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

5、终止聊天命令

  • Ctrl键 + C 即可实时终止聊天

二、安装对话界面软件

1、安装anythingllm

  • 上述安装完成后其实已经可以简单的对话了,只是dos界面看起来不够美观只能临时存储对话!

  • 接下来安装一个和其他模型对话界面相似的软件,这里用的是anythingllm

  • https://anythingllm.com/
    
  • 在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

2、配置

在这里插入图片描述

3、设置工作区

在这里插入图片描述

4、设置模型

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

5、至此 简单的配置完成

三、删除指定模型

1、查看模型

  • 打开dos窗口,方式和之前的操作教程一样,输入下面的命令
ollama list

在这里插入图片描述

2、删除模型

  • 通过命令,删除指定的模型,格式为ollama rm (指定模型)
ollama rm qwen3:8b

在这里插入图片描述

  • 即可删除指定的模型

四、anythingllm其他操作

  • 当我们删除指定的模型后,在anythingllm有时候无法做到实时更新,大家可以手动操作更新设置里面的模型选择,或者删除工作区,重新配置、
### 如何离线部署 DeepSeek-R1-Distill-Qwen-32B 大模型 为了成功离线部署 DeepSeek-R1-Distill-Qwen-32B 模型,环境配置和资源准备至关重要。确保硬件满足最低需求,包括足够的 GPU 显存和支持 CUDA 的 NVIDIA 图形卡[^1]。 #### 准备工作 安装必要的依赖库对于顺利运行大模型非常重要。通常情况下,这涉及 Python 环境设置以及 PyTorch 或 TensorFlow 这样的深度学习框架的安装。具体到 DeepSeek-R1-Distill-Qwen-32B,推荐使用 Anaconda 创建独立的工作环境来管理包版本冲突问题: ```bash conda create -n deepseek_env python=3.9 conda activate deepseek_env pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117 ``` #### 下载并加载预训练权重 由于目标是在没有互联网连接的情况下部署该模型,因此需要提前下载好所有的文件,并将其存储在一个可访问的位置。官方文档建议通过有网络连接的设备预先获取这些资源,之后再转移到目标环境中。 ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_name_or_path = "path_to_offline_model_directory" tokenizer = AutoTokenizer.from_pretrained(model_name_or_path) model = AutoModelForCausalLM.from_pretrained(model_name_or_path) ``` #### 配置推理服务 完成上述准备工作后,下一步就是构建一个能够接收请求并向用户提供响应的服务接口。Flask 是一种轻量级 Web 应用程序开发工具,非常适合用来快速搭建这样的 API 接口。 ```python from flask import Flask, request, jsonify app = Flask(__name__) @app.route('/predict', methods=['POST']) def predict(): input_text = request.json.get('input') inputs = tokenizer(input_text, return_tensors="pt").to("cuda") outputs = model.generate(**inputs) result = tokenizer.decode(outputs[0], skip_special_tokens=True) return jsonify({"output": result}) if __name__ == "__main__": app.run(host='0.0.0.0', port=5000) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CodeClimb

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值