内网本地部署deepseek模型(ollama+deepseek),并建立本地知识库(一)

你们单位可能有些数据比较机密,比较敏感,不能连接互联网。但又想用LLM(Large Language Model 大语言模型)来提高工作效率,这个时候你可以利用ollama在内网本地部署LLM来实现。本文以部署deepseek为例。

大家可以先在自己电脑上用虚拟机部署好,再用U盘或或者光盘把虚拟机文件复制到内网去。也可以直接把安装文件和模型文件复制到内网再安装和配置。

一、使用ollama部署本地LLM模型

1、安装设置ollama

1、官网https://ollama.com/下载自已电脑对应的ollama 版本。


直接下载 可能报错,最好用迅雷或其它下载工具下载。

安装比较简单,直接点击下载好的OllamaSetup.exe文件下一步下一步就好。
装好后,软件会自动启动
以windows系统为例
win+R ->cmd 打开终端输入

ollama -v

如下图显示ollama版本即表示安装成功。

2、环境变量设置 windows 电脑

模型文件默认放在**C:\Users\(你电脑的登录用户).ollama\models这个目录下,如我的电脑为C:\Users\tt.ollama\models。这样很容易造成C盘空间不足,若想更换模型文件位置需要设置系统环境变量。

设置->系统->系统信息
在这里插入图片描述

选择高级系统设置
在这里插入图片描述
选择环境变量->选择新建
在这里插入图片描述
这两个新建都可以
按下图新建一个OLLAMA_MODELS的环境变量,变量值就是你有模型文件放置的位置
在这里插入图片描述
然后重启电脑ollama设置就会生效了。

2、

2、下载模型

可以选择两种方法。

1、第一种是直接用ollama下载。可以按官网https://www.ollama.com/library/deepseek-r1的命令直接下载对应版本的deepseek即可?

在这里插入图片描述
右侧为模型文件大小,模型文件是放在显存或者内存里运行的,所以模型文件大小不要超过你电脑的显存或者内存的50%。如8g显存,可以选择7b或8b版本,集成显卡的可以选择1.5b版本,选择14b版本可能会跑不动,你大可动手一试。具体情况因个人电脑而异。1.5b为参数数量,数字越大参数越多,deepseek越聪明。
这里我以1.5b版本为例。

ollama run deepseek-r1:1.5b

然后ollama便会开始下载模型。
下载好后,通过以下命令查看已安装好的模型。

ollama list

查看已经安装好的模型
在这里插入图片描述
下载速度开始很快,后面会慢到几十K甚至几K,这里下载模型文件推荐另一种方法。

2.魔搭社区下载deepseek.gguf模型文件。

先进入阿里的魔搭社区,点击模型库,魔搭社区,模型很多,可以直接在搜索栏里搜索***deepseek guff***
在这里插入图片描述
选择一个适合自己电脑的模型文件下载
比如选择第一个点开
在这里插入图片描述
这里的gguf文件都可以下载,而且速度很快,文件越大,精度越高,越聪明,电脑也运行越吃力。
将文件下载后,复制到刚才环境变量里设置的***OLLAMA_MODELS***文件夹下,我这里是***D:\AImodels***

3、创建模型

1、进入你的OLLAMA_MODELS文件夹,我这里是D:\AImodel,创建Modelfile文件,新建一个记事本文件,并打开,文件中写入下面内容
FROM D:\AImodel\DeepSeek-R1-Distill-Qwen-1.5B.gguf

然后再去掉文件的.txt后缀名!!!!!!!

2、在D:\AImodel文件夹 下输入cmd 命令ollama create (这里填你下载的模型名字,记得名字要和Modelfile里的文件名一致) -f Modelfile如下图

在这里插入图片描述
如上图所示表示模型安装成功
也可以使用命令 ollama list查看安装的模型

ollama list

查询结果如下图所示
在这里插入图片描述

4、运行模型

使用***ollama run (模型名)*** 运行模型,模型名比较长的,可以先打个ollama list再复制即可

ollama run DeepSeek-R1-Distill-Qwen-1.5B:latest 

如下图所示,模型开始运行,LLM本地部署成功。
在这里插入图片描述
未完待续…

### DeepSeek内网环境下的本地部署 为了实现在内网环境中通过本地部署DeepSeek来集成到IDEA进行代码生成和静态分析的功能,需要完成几个关键步骤。这些步骤涉及准备必要的硬件资源、安装依赖软件以及配置网络设置。 #### 准备工作 确保服务器具备足够的计算能力和存储空间以运行DeepSeek服务[^1]。通常情况下,官方文档会给出最低配置要求,建议遵循这些建议适当增加冗余度以便更好地处理多发请求。 #### 安装依赖项 按照官方指南下载安装操作系统所需的包管理器和其他基础组件,比如Python解释器及其库文件等。对于Linux发行版而言,可以利用apt-get或yum命令行工具;而对于Windows Server,则可能需要用到Chocolatey这样的第三方程序源。 #### 获取DeepSeek镜像 由于目标是在完全隔离的内部网络里操作,因此必须提前在外网环境下获取最新的Docker镜像或者虚拟机模板,将其安全传输至指定位置保存待用。如果企业有专门的数据交换机制(如U盘拷贝),则应遵照相应流程执行转移动作。 #### 部署过程 旦所有前期准备工作就绪之后就可以正式开始搭建DeepSeek平台了: - **启动容器实例**:使用docker-compose.yml定义的服务描述符创建个新的集群节点; ```yaml version: '3' services: deepseek-server: image: your_local_deepseek_image_tag ports: - "8080:80" environment: DEEPSEEK_API_KEY: YOUR_SECRET_KEY_HERE ``` - **调整防火墙策略**:允许来自特定IP地址范围内的访问权限给HTTP(S)端口(默认为80/443),同时开放其他必要通信接口供后续扩展模块调用; - **初始化数据库结构**:首次上线前需导入预设模式表单,确保各业务逻辑层能够正常交互运作而不受数据缺失影响; - **验证API可用性**:借助Postman之类的RESTful客户端发起简单查询请求测试返回结果是否符合预期标准; - **对接IDE插件**:最后步就是把上述构建好的微服务体系无缝衔接到JetBrains IntelliJ IDEA当中去了——即安装对应的Marketplace应用商店里的附加组件,按提示指引完成最终绑定手续。 ```bash # 更新仓库索引 sudo apt update && sudo apt upgrade -y # 安装Docker CE sudo apt install docker-ce docker-ce-cli containerd.io -y # 启动启用Docker守护进程 sudo systemctl start docker.service sudo systemctl enable docker.service # 下载离线版本的DeepSeek Docker镜像 docker pull registry.example.com/deepseek/latest # 将其标签重命名为便于识别的形式 docker tag registry.example.com/deepseek/latest localhost:5000/my-deepseek-image # 推送至私有的Registry中去 docker push localhost:5000/my-deepseek-image ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值