Smol Models 使用教程

Smol Models 使用教程

smollm Everything about the SmolLM2 and SmolVLM family of models smollm 项目地址: https://gitcode.com/gh_mirrors/smo/smollm

1. 项目介绍

Smol Models 是来自 Hugging Face 的一系列高效且轻量级的 AI 模型,适用于文本和视觉任务。我们的目标是创建出在设备上运行高效且性能强劲的紧凑型模型。

2. 项目快速启动

以下是快速启动 SmolLM2 和 SmolVLM 模型的基本步骤。

SmolLM2 快速启动

from transformers import AutoModelForCausalLM, AutoTokenizer

# 选择模型checkpoint
checkpoint = "HuggingFaceTB/SmolLM2-1.7B-Instruct"

# 加载分词器和模型
tokenizer = AutoTokenizer.from_pretrained(checkpoint)
model = AutoModelForCausalLM.from_pretrained(checkpoint)

# 创建对话信息
messages = [{
    "role": "user",
    "content": "编写一篇关于'开源在AI研究中益处'的100字文章"
}]

# 应用聊天模板并获取输入文本
input_text = tokenizer.apply_chat_template(messages, tokenize=False)

SmolVLM 快速启动

from transformers import AutoProcessor, AutoModelForVision2Seq

# 加载处理器和模型
processor = AutoProcessor.from_pretrained("HuggingFaceTB/SmolVLM-Instruct")
model = AutoModelForVision2Seq.from_pretrained("HuggingFaceTB/SmolVLM-Instruct")

# 创建对话信息,包括图像和文本
messages = [
    {
        "role": "user",
        "content": [
            {"type": "image"},
            {"type": "text", "text": "这张图片里有什么?"}
        ]
    }
]

# 使用处理器处理信息
input_data = processor(messages)

3. 应用案例和最佳实践

在应用 Smol Models 时,以下是一些最佳实践:

  • 模型微调:针对特定任务对模型进行微调,以提高性能。
  • 资源优化:在设备上运行模型时,确保优化资源使用,例如通过减少模型大小或使用量化技术。
  • 交互设计:对于语言模型,设计自然且直观的交互方式,以提升用户体验。

4. 典型生态项目

Smol Models 的生态系统包括以下项目:

  • SmolTalk:用于指令微调的数据集。
  • FineMath:数学预训练数据集。
  • FineWeb-Edu:教育内容预训练数据集。

通过这些项目和数据集,开发者和研究人员可以进一步扩展 Smol Models 的应用范围。

smollm Everything about the SmolLM2 and SmolVLM family of models smollm 项目地址: https://gitcode.com/gh_mirrors/smo/smollm

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

龚柯劫Esmond

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值