modelscope+Qwen3-4B+Python 模型本地部署Demo
环境准备
- Python 3.13.3 (3.x以上版本)
- 创建虚拟python3环境
python3 -m venv venv
- 安装ai模型依赖相关包
pip install modelscope torch transformers -i https://pypi.tuna.tsinghua.edu.cn/simple
4.安装git,git lfs,下载千问3系列大模型
tips
若收到国内网速限制,本次Demo需要的软件可参考 这里下载
-
Qwen3-4B 下载地址
在本地使用时根据自己GPU显卡内存选择
-
点击上图【圈2】会打开下图,按照说明适用git下载到本地目录(此目录存放大模型之后python代码中指定目录调用)

魔塔社区概略
tips: 下述内容摘自魔塔社区官网文档如有兴趣可详细看官方文档介绍
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!
modelscope调用本地模型代码
# 从modelscope库导入必要的模块
# AutoModelForCausalLM: 用于加载因果语言模型
# AutoTokenizer: 用于加载与模型对应的分词器
# snapshot_download: 用于从ModelScope中心下载模型
from modelscope import AutoModelForCausalLM, AutoTokenizer, snapshot_download
import os # 用于操作系统相关操作
# 设置模型本地存储路径
# 注意:需要替换为你实际的模型路径
model_path = r'D:\work\dev\model-dir\Qwen\Qwen3-4B'
# 备用代码:从ModelScope中心下载模型的方案
# if not os.path.exists(model_dir):
# os.makedirs(model_dir) # 如果目录不存在则创建
# model_path = snapshot_download(model_name, cache_dir=model_dir) # 下载模型到指定路径
print("model_path:", model_path)

最低0.47元/天 解锁文章
347

被折叠的 条评论
为什么被折叠?



