InternLM大模型第三期(闯关)

第二关:python基础知识

任务要求1:实现一个wordcount函数,统计英文字符串中每个单词出现的次数。返回一个字典,key为单词,value为对应单词出现的次数。

测试内容:

text = """
Got this panda plush toy for my daughter's birthday,
who loves it and takes it everywhere. It's soft and
super cute, and its face has a friendly look. It's
a bit small for what I paid though. I think there
might be other options that are bigger for the
same price. It arrived a day earlier than expected,
so I got to play with it myself before I gave it
to her.
"""

def wordcount(text):
    pass

代码截图如下:

代码运行结果:

注意:在统计每个英语单词出现的次数时,需要

### 对 InternLM 模型进行微调 #### 准备工作 为了对 InternLM 模型进行微调,需先完成一系列准备工作。这包括但不限于安装 XTuner 工具箱以及准备必要的硬件资源。 - **环境搭建**:确保已安装 Python 环境,并通过 pip 安装最新版本的 XTuner 库[^1]。 - **硬件配置**:根据官方文档说明,即使是最基础的消费级显卡也足以支撑起整个训练过程,不过具体性能会受到 GPU 显存大小等因素的影响。 #### 数据集构建 针对特定任务的数据收集至关重要。高质量且具有代表性的数据能够显著提升最终模型的表现力。对于指令微调而言,建议创建包含多样化命令及其预期响应格式化的对话样本集合。 #### 配置文件调整 依据实际应用场景定制化修改默认参数设置。例如学习率、批次大小等超参的选择都将直接影响到收敛速度与效果优劣程度。XTuner 提供了灵活易用的 YAML 文件来定义这些选项。 ```yaml # example_config.yaml model_name_or_path: "path_to_internlm_model" output_dir: "./results" per_device_train_batch_size: 8 learning_rate: 5e-5 num_train_epochs: 3 ``` #### 实施微调操作 利用上述提到的各种组件协同作用即可启动正式的微调流程: ```bash xtuner-cli finetune \ --config ./example_config.yaml \ --data_file path/to/dataset.jsonl \ --logging_steps 100 \ --save_steps 1000 ``` 此命令行脚本将会读取指定路径下的 JSON Lines 格式的输入文件作为训练素材,在每达到一定步数时自动保存中间成果并记录日志以便后续分析评估。 #### 合并与导出优化后的模型 当迭代完成后,可以借助 `transformers` 或者其他兼容框架所提供的 API 将多个 checkpoint 整合为一体,并将其转化为更易于部署的形式如 ONNX 或 TorchScript 等[^2]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值