LM Studio 部署本地大语言模型

一、下载安装

1.搜索:lm studio

 LM Studio - Discover, download, and run local LLMs

2.下载

 3.安装

 4.更改成中文

 

二、下载模型(软件内下载)

1.选择使用代理,否则无法下载 

2.更改模型下载目录

 默认下载位置 

C:\Users\用户名\.lmstudio\models

3.搜索、下载

以  deepseek r1 1.5b  为例;如果下载速度慢,暂停后,再恢复下载

三、下载模型(Hugging Face下载)

 1.搜索、下载

 2.放入指定路径

注意:两层文件夹,名称无所谓,最好是 仓库名/文件名/文件

四、使用模型 

1.加载模型 调整参数 

 2.测试后可以再次调整(跳过)

3.其他设置

五、打开本地服务

1.开启服务

 

 注意打开局域网访问模式

2.下载客户端 

①搜索chatbox

Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载

 ②下载

③下一步、下一步安装就行

 3.配置客户端

方法一(推荐):

 设置好IP、端口后保存

方法二:

 4.测试

自行输入框提问测试

### 如何在LM Studio中导入本地训练的机器学习模型 #### 导入前准备 为了成功导入本地训练的机器学习模型LM Studio,需确认该模型文件兼容于平台所支持的格式。通常情况下,LM Studio能够处理多种常见的模型格式,如`.pt` (PyTorch), `.ckpt`, 和Hugging Face Transformers库中的模型结构。 #### 步骤说明 启动LM Studio之后,在主界面上找到并点击进入“模型管理”区域[^2]。在此区域内,应该能看到用于上传新模型或浏览已有的本地模型的相关选项。对于想要导入的新模型: - **选择模型路径**:通过指定计算机上存储目标模型的具体位置来完成这一步操作。 - **验证模型完整性**:确保待导入的模型文件及其依赖项均无损坏且完整保存在同一目录下,以便顺利加载。 - **配置参数设置**:依据个人需求调整必要的运行参数,比如是否利用GPU加速等特性;这部分设定同样可以在“模型管理”的相应板块内完成。 一旦上述准备工作就绪,则可执行实际的导入动作——即按照界面提示选取要加入系统的那个特定版本的模型文件夹,并最终确认提交请求。当一切正常时,新的自定义模型将会出现在可用资源列表之中供随时调用[^1]。 ```python # 假设这是Python环境中模拟导入过程的一个简化例子 import lm_studio_api as lmsa # 假定存在这样的API接口模块 model_path = "/path/to/local/model" lmsa.import_model(model_directory=model_path, use_gpu=True) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值