【python学习】使用魔搭社区的模型

该文章已生成可运行项目,

前言

        魔塔社区有很多模型,但是怎么使用呢?刚开始学习python,简单的摸索一下

一、新建项目

1、创建虚拟环境

conda create -n paddle python=3.10

2、激活虚拟环境

conda activate paddle 

3、新建项目

        PyCharn新建一个项目,选择已创建的虚拟环境paddle

        项目新增models目录

二、下载模型

        打开PyCharm的Terminal,命令行前面有一个(paddle),说明当前是在虚拟环境下,使用命令行安装必要的依赖和下载模型

1、安装必要的依赖

参考链接:https://modelscope.cn/docs/intro/environment-setup

(1)安装modelscope

        modelscope是用来下载模型和导入模型的,切记添加后面的[framework]

pip install modelscope[framework]

(2)安装torch

        torch是一个深度学习框架,运行模型需要这个东西

pip install torch -i https://pypi.tuna.tsinghua.edu.cn/simple

2、下载模型

        选择这个模型 https://modelscope.cn/models/iic/cv_resnet18_card_correction

        点击下载模型,会有各种下载模型的方式

        我们使用以下命令下载模型,把模型下载当当前项目的models目录下

 modelscope download --model iic/cv_resnet18_card_correction --local_dir ./models/iic/cv_resnet18_card_correction

        下载完成后在models目录下有对应的模型文件了

三、运行

        新建一个main.py,添加以下代码即可,参考模型页面的使用范例

from pathlib import Path
import cv2
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks

# 加载模型
card_detection_correction = pipeline(Tasks.card_detection_correction, model='models/iic/cv_resnet18_card_correction')


def correction():
    
    # 读取文件夹下的文件
    folder_path = Path(r'D:\study\paddle\image')
    files = [f for f in folder_path.iterdir() if f.is_file()]
    
    # 遍历文件
    for file in files:
        print(file)
        file_name = file.name
        
        # 调用模型
        result = card_detection_correction(str(file))
        print(result)
        
        # 保存结果图片
        corrected_image = result['output_imgs'][0]
        cv2.imwrite(fr'D:\study\paddle\result\{file_name}', corrected_image)


if __name__ == '__main__':
    correction()

写在最后的话

        这只是一个简单的示例,用来校正票证图片,其他模型的使用方法万变不离其宗

本文章已经生成可运行项目
### 如何通过 Xinference 使用魔塔平台下载机器学习模型 Xorbits Inference(Xinference)作为一个强大的分布式推理框架,支持多种类型的模型部署和管理[^1]。虽然官方文档并未直接提及与魔塔平台的具体集成方法,但可以通过以下方式实现从魔塔平台下载并加载模型到 Xinference 中。 #### 1. 安装 Xinference 和依赖项 首先需要安装 Xinference 及其必要的依赖环境。可以按照官方指南完成安装过程[^2]: ```bash pip install xorbits-inference ``` 如果计划使用魔塔平台上的特定模型,则还需要额外安装 Hugging Face 的 `transformers` 库以及相关工具包,因为魔塔平台通常基于此库提供模型接口。 ```bash pip install transformers datasets accelerate ``` --- #### 2. 连接至魔塔平台获取目标模型 魔塔平台提供了丰富的预训练模型资源,这些模型大多可以直接通过 Hugging Face Hub 或其他 API 接口访问。假设要下载一个名为 `model-name` 的模型,可以利用如下代码片段将其保存到本地路径中: ```python from huggingface_hub import snapshot_download local_model_path = "./models/model_name" snapshot_download(repo_id="magic-tower/model-name", local_dir=local_model_path, resume_download=True) ``` 上述脚本会将指定的模型文件存储在当前目录下的 `./models/model_name/` 文件夹内。 --- #### 3. 加载模型到 Xinference 平台 一旦成功下载所需模型之后,就可以借助 Xinference 提供的功能来启动服务端实例并将该模型注册进去。下面展示了一个基本示例流程: ```python import os from xinference.client import Client # 初始化客户端连接 client = Client("http://localhost:9997") # 注册已下载好的模型 model_uid = client.register_model( model_type="llm", model_size_in_billions=7, quantization=None, model_name=os.path.join(os.getcwd(), "models/model_name"), ) # 获取模型句柄以便后续调用 model_handler = client.get_model(model_uid=model_uid) print(f"Model loaded successfully with UID {model_uid}") ``` 这里需要注意的是,在调用 `register_model()` 方法时需传入正确的参数配置,比如模型大小 (`model_size_in_billions`)、量化级别 (`quantization`) 等具体数值应依据实际需求调整。 --- #### 4. 测试模型功能 最后一步是对刚刚导入的服务化模型执行一些基础测试操作以验证其可用性。例如输入一段文字让 LLM 自动生成回复内容: ```python response = model_handler.chat(prompt="你好呀!今天过得怎么样?") print(response["message"]) ``` 以上即完成了整个从魔塔平台上选取合适的大规模语言或其他类型AI模型直至最终应用的过程概述。 --- ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值