告别复杂命令:用这个脚本轻松管理 DeepSeek 大模型

自己写了一个 Windows 批处理脚本(Batch Script),用于管理和操作基于 Ollama 框架部署的 DeepSeek 大模型。它提供了一个简单的命令行菜单界面,用户可以通过选择不同的选项来执行以下操作:

查看ollama版本
查看deepseek大模型列表
运行1.5b大模型
运行7b大模型
运行8b大模型
运行14b大模型
停止运行1.5b大模型
停止运行7b大模型
停止运行8b大模型
停止运行14b大模型
查看正在运行的大模型

脚本功能

  1. 查看 Ollama 版本
    检查当前安装的 Ollama 版本。

  2. 查看 DeepSeek 大模型列表
    列出本地已下载或可用的 DeepSeek 大模型。

  3. 运行及安装指定的大模型
    支持运行以下 DeepSeek 模型:

    • DeepSeek 1.5b 模型
    • DeepSeek 7b 模型
    • DeepSeek 8b 模型
    • DeepSeek 14b 模型
  4. 停止指定的大模型
    停止正在运行的 DeepSeek 模型。

  5. 查看正在运行的大模型
    显示当前正在运行的 DeepSeek 模型实例。

  6. 退出工具
    退出脚本。


脚本运行逻辑

  1. 菜单界面
    脚本启动后会显示一个菜单,用户输入数字选择对应的功能。

  2. 跳转到对应功能
    根据用户输入,脚本会跳转到相应的标签(如 :run_1_5b:stop_7b 等),执行对应的命令。

  3. 命令执行
    每个功能都通过调用 ollama 命令来完成具体操作,例如:

    • ollama run deepseek-r1:1.5b:运行 1.5b 模型。
    • ollama stop deepseek-r1:7b:停止 7b 模型。
    • ollama list:列出所有模型。
    • ollama ps:查看正在运行的模型。
  4. 返回菜单
    每次操作完成后,脚本会暂停(pause),等待用户按任意键后返回主菜单。


如何使用

  1. 保存脚本
    将脚本内容保存为一个 .bat 文件,例如 deepseek_manager.bat

  2. 运行脚本
    双击 .bat 文件,或在命令行中运行该脚本。

  3. 选择功能
    根据菜单提示输入数字,执行相应的功能。


适用场景

  • 本地部署 DeepSeek 大模型:适合在本地环境中使用 Ollama 框架部署和运行 DeepSeek 大模型的用户。
  • 简化操作:通过菜单化界面,避免手动输入复杂的命令。
  • 批量管理:方便用户快速启动、停止和查看模型状态。

注意事项

  1. 依赖 Ollama
    脚本依赖于 Ollama 框架,确保已正确安装并配置 Ollama。

  2. 模型名称
    脚本中使用的模型名称(如 deepseek-r1:1.5b)需要与实际部署的模型名称一致。

  3. 权限问题
    如果 Ollama 需要管理员权限运行,请以管理员身份运行该脚本。

  4. Ctrl+D 停止对话
    在运行模型时,输入 Ctrl+D 可以停止当前对话并返回菜单。

总之,这是一个非常实用的工具脚本,适合需要频繁操作 DeepSeek 大模型的用户

@echo off
:menu
cls
echo ==============================
echo      DeepSeek 模型管理工具
echo ==============================
echo 1. 查看ollama版本
echo 2. 查看deepseek大模型列表
echo 3. 运行1.5b大模型
echo 4. 运行7b大模型
echo 5. 运行8b大模型
echo 6. 运行14b大模型
echo 7. 停止运行1.5b大模型
echo 8. 停止运行7b大模型
echo 9. 停止运行8b大模型
echo 10. 停止运行14b大模型
echo 11. 查看正在运行的大模型
echo 12. 退出
echo ==============================
set /p choice=请输入选项(1-11):

if "%choice%"=="1" goto version
if "%choice%"=="2" goto list
if "%choice%"=="3" goto run_1_5b
if "%choice%"=="4" goto run_7b
if "%choice%"=="5" goto run_8b
if "%choice%"=="6" goto run_14b
if "%choice%"=="7" goto stop_1_5b
if "%choice%"=="8" goto stop_7b
if "%choice%"=="9" goto stop_8b
if "%choice%"=="10" goto stop_14b
if "%choice%"=="11" goto ps
if "%choice%"=="12" exit

echo 无效选项,请重新输入。
pause
goto menu

:version
cls
echo 正在查看ollama版本...
ollama -v
pause
goto menu

:list
cls
echo 正在查看deepseek大模型列表...
ollama list
pause
goto menu

:run_1_5b
cls
echo 正在运行deepseek-r1:1.5b模型
echo...输入Ctrl+D停止对话....
ollama run deepseek-r1:1.5b
pause
goto menu

:run_7b
cls
echo 正在运行deepseek-r1:7b模型...
echo...输入Ctrl+D停止对话....
ollama run deepseek-r1:7b
pause
goto menu

:run_8b
cls
echo 正在运行deepseek-r1:8b模型...
echo...输入Ctrl+D停止对话....
ollama run deepseek-r1:8b
pause
goto menu

:run_14b
cls
echo 正在运行deepseek-r1:14b模型...
echo...输入Ctrl+D停止对话....
ollama run deepseek-r1:14b
pause
goto menu

:stop_1_5b
cls
echo 正在停止deepseek-r1:1.5b模型...
ollama stop deepseek-r1:1.5b
pause
goto menu

:stop_7b
cls
echo 正在停止deepseek-r1:7b模型...
ollama stop deepseek-r1:7b
pause
goto menu

:stop_8b
cls
echo 正在停止deepseek-r1:8b模型...
ollama stop deepseek-r1:8b
pause
goto menu

:stop_14b
cls
echo 正在停止deepseek-r1:14b模型...
ollama stop deepseek-r1:14b
pause
goto menu

:ps
cls
echo 正在查看正在运行的大模型...
ollama ps
pause
goto menu


### 调用 DeepSeek 大模型 API 的方法 为了调用 DeepSeek 大模型,首先需要通过 Ollama 工具完成安装并配置好环境。一旦设置完毕,可以通过 RESTful API 或者 SDK 来访问 DeepSeek 提供的功能。 #### 使用 RESTful API 进行调用 RESTful API 是一种常见的网络服务接口设计风格,允许客户端发送 HTTP 请求来操作资源。对于 DeepSeek 模型而言,通常会提供 POST 方法来进行推理请求: ```http POST /v1/inference/deepseek Host: api.example.com Content-Type: application/json Authorization: Bearer YOUR_API_KEY { "input": "your input text here", "parameters": { "max_tokens": 50, "temperature": 0.7 } } ``` 上述命令中的 `YOUR_API_KEY` 应替换为实际获取到的 API 密钥[^1];`input` 字段则是要传递给模型的数据;`parameters` 对象可以用来调整生成文本的行为特性,比如最大返回 token 数量 (`max_tokens`) 和采样温度 (`temperature`) 等参数。 #### Python SDK 示例代码 除了直接使用 HTTP 协议外,还可以利用官方提供的 Python SDK 更加便捷地与 DeepSeek 交互。下面是一个简单的例子展示如何初始化连接以及执行一次预测任务: ```python from deepseek import DeepSeekClient client = DeepSeekClient(api_key='YOUR_API_KEY') response = client.predict( model="deepseek", inputs={"text": "your input text here"}, parameters={ 'max_tokens': 50, 'temperature': 0.7 } ) print(response) ``` 这段脚本展示了创建一个 `DeepSeekClient` 实例的过程,并指定了必要的认证信息(API key)。接着调用了 `predict()` 函数向指定模型提交输入数据并接收响应结果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

李佑辰

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值