【书生浦语大模型实战营四期】入门岛 第4关 玩转HF/魔搭/魔乐社区

Hugging Face平台

模型下载

GitHub CodeSpace的使用
打开https://github.com/codespaces,选择Jupyter Notebook进行创建环境
在这里插入图片描述
在界面下方的终端(terminal)安装以下依赖,便于模型运行。

# 安装transformers
pip install transformers==4.38
pip install sentencepiece==0.1.99
pip install einops==0.8.0
pip install protobuf==5.27.2
pip install accelerate==0.33.0

安装完成后如下图所示
在这里插入图片描述
先新建一个hf_download_josn.py文件,粘贴代码,如下图所示
在这里插入图片描述
然后运行该文件,可以看到我们成功从Hugging Face上下载了相应配置的文件
在这里插入图片描述
先新建一个hf_download_1_8_demo.pyhf_download_josn_1_8.py文件,粘贴代码,如下图所示
在这里插入图片描述
在这里插入图片描述
其中hf_download_josn_1_8.py需稍作修改,具体见上图,其余与hf_download_josn.py一样。
然后运行这两个文件,可以看到我们成功从Hugging Face上下载了相应配置的文件,同时会在控制台返回模型生成的结果。
在这里插入图片描述在这里插入图片描述
打开https://huggingface.co/spaces,创建一个名为intern_cobuild,的Static应用。
创建成功后会自动跳转到一个默认的HTML页面。创建好项目后,回到CodeSpace,接着clone项目。
在这里插入图片描述
找到该目录文件夹下的index.html文件,修改html代码.
在这里插入图片描述
保存后进行上传更新操作
这里需要先设置huggface的token
在这里插入图片描述
在这里插入图片描述

git remote set-url origin https://<username>:hf_xxx@huggingface.co/spaces/<username>/intern_cobuild
git add.
git commit -m "update: colearn page"
git push

然后再push,即可成功。
再次进入Space界面刷新,就可以看到实战营的共建活动
在这里插入图片描述

模型上传

安装git lfs
在这里插入图片描述
接着可以在CodeSpace里面,使用

git config --global credential.helper store
huggingface-cli login

命令进行登录,这时需要输入前面生成的token
在这里插入图片描述
创建项目并克隆到本地
在这里插入图片描述
将刚刚下载好的config.json,把它复制粘贴进这个文件夹里面,并写一个README.md文件
在这里插入图片描述
git提交到远程仓库
在这里插入图片描述
在Hugging Face的个人profile里查看model
在这里插入图片描述

### 书生大模型第四期基础通第三 针对书生大模型第四期基础通第三的任务,此阶段主要聚焦于通过不同参数量训练模型并结合多种微调技术来优化特定任务的表现。具体而言,在对比 xcomposer2-4khd、internVL1.5 和 llava-llama3-8b 这些具有不同参数规模的预训练模型时,采用 LORA(低秩自适应)、QLORA 及 FULL 训练方法可以有效增强模型处理少量样本学习(few-shot learning)以及专门领域内图纸识别的能力[^1]。 为了成功完成这一挑战,建议采取如下策略: #### 数据准备 确保拥有高质量的数据集用于训练和验证,特别是那些能够代表目标应用场景中的特征数据,比如工业设计图或其他形式的技术绘图。 #### 模型选择与调整 基于项目需求挑选合适的基线模型,并考虑其参数大小对性能的影响。较小的模型可能更适合资源受限环境下的部署;而较大的模型则通常能提供更好的泛化能力。 #### 微调技巧应用 利用LORA或QLORA等高效微调方式快速适配新任务,减少计算成本的同时保持较高的准确性。对于更复杂的要求,则可尝试FULL fine-tuning以获得最佳效果。 ```python from transformers import AutoModelForSequenceClassification, Trainer, TrainingArguments model_name = "path_to_pretrained_model" model = AutoModelForSequenceClassification.from_pretrained(model_name) training_args = TrainingArguments( output_dir="./results", evaluation_strategy="epoch", per_device_train_batch_size=8, per_device_eval_batch_size=8, num_train_epochs=3, weight_decay=0.01, ) trainer = Trainer( model=model, args=training_args, train_dataset=train_dataset, eval_dataset=val_dataset, ) ``` 上述代码片段展示了如何设置一个简单的`Trainer`对象来进行模型微调操作。实际实现过程中还需要根据具体的任务类型调整配置项。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值