LMFlow学术引用指南:正确引用LMFlow相关研究论文
1. 引言
在学术研究中,正确引用相关工具和算法是尊重原作者知识产权、确保研究可追溯性的重要实践。LMFlow(Large Model Flow)作为一个开源的大模型微调与推理工具包,包含了多项创新性研究成果,如RAFT(Reward rAnked FineTuning)对齐算法、LISA(Layerwise Importance Sampling for Memory-Efficient Fine-Tuning)内存优化技术等。本指南旨在提供LMFlow相关研究论文的标准引用格式,帮助研究者准确引用LMFlow工具包及其核心算法。
2. LMFlow核心研究论文引用
2.1 LMFlow工具包基础论文
LMFlow工具包的整体架构和实现细节在以下论文中进行了详细描述:
@article{diao2023lmflow,
title={Lmflow: An extensible toolkit for finetuning and inference of large foundation models},
author={Diao, Shizhe and Pan, Rui and Dong, Hanze and Shum, Ka Shun and Zhang, Jipeng and Xiong, Wei and Zhang, Tong},
journal={arXiv preprint arXiv:2306.12420},
year={2023}
}
使用场景:当您在研究中使用LMFlow工具包的任何功能(如微调、推理、评估等)时,均需引用此基础论文。
2.2 RAFT对齐算法
RAFT(Reward rAnked FineTuning)是LMFlow中实现的一种高效模型对齐算法,无需传统RLHF中的强化学习过程,直接通过排序奖励进行微调:
@article{dong2023raft,
title={Raft: Reward ranked finetuning for generative foundation model alignment},
author={Dong, Hanze and Xiong, Wei and Goyal, Deepanshu and Pan, Rui and Diao, Shizhe and Zhang, Jipeng and Shum, Kashun and Zhang, Tong},
journal={arXiv preprint arXiv:2304.06767},
year={2023}
}
使用场景:当您在研究中使用raft_aligner.py模块或相关RAFT算法实现时,需同时引用LMFlow基础论文和此RAFT专项论文。
2.3 LISA内存优化技术
LISA(Layerwise Importance Sampling)是LMFlow中用于内存高效微调的技术,允许在有限GPU资源下微调大模型:
@article{pan2024lisa,
title={LISA: Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning},
author={Pan, Rui and Liu, Xiang and Diao, Shizhe and Pi, Renjie and Zhang, Jipeng and Han, Chi and Zhang, Tong},
journal={arXiv preprint arXiv:2403.17919},
year={2024}
}
使用场景:当您使用LMFlow中的--use_lisa参数进行内存高效微调,或相关脚本(如run_finetune_with_lisa.sh)时,需同时引用LMFlow基础论文和此LISA专项论文。
3. 引用格式示例
3.1 在LaTeX中引用
在LaTeX文档中,您可以通过以下方式引用LMFlow相关论文:
% 在文内引用
根据LMFlow工具包的实现(Diao et al., 2023),我们使用RAFT算法(Dong et al., 2023)对模型进行对齐,并采用LISA技术(Pan et al., 2024)优化内存使用。
% 在参考文献部分
\bibliography{references}
\bibliographystyle{IEEEtran}
3.2 在Markdown中引用
在Markdown文档中,通常使用数字标号或作者-年份格式:
- 数字标号格式:LMFlow工具包([1])提供了RAFT([2])和LISA([3])等先进算法,可显著提升大模型微调效率。
- 作者-年份格式:Diao et al. (2023)提出的LMFlow工具包集成了Dong et al. (2023)的RAFT算法和Pan et al. (2024)的LISA内存优化技术。
4. 不同研究场景的引用组合
4.1 仅使用LMFlow基础功能
如果您仅使用LMFlow的基础微调或推理功能,未涉及RAFT或LISA等专项算法,只需引用LMFlow基础论文:
@article{diao2023lmflow,
title={Lmflow: An extensible toolkit for finetuning and inference of large foundation models},
author={Diao, Shizhe and Pan, Rui and Dong, Hanze and Shum, Ka Shun and Zhang, Jipeng and Xiong, Wei and Zhang, Tong},
journal={arXiv preprint arXiv:2306.12420},
year={2023}
}
4.2 使用RAFT对齐算法
当您使用LMFlow中的RAFT对齐功能(如raft_align.py脚本或--collection_strategy参数)时,需同时引用基础论文和RAFT专项论文:
@article{diao2023lmflow,
title={Lmflow: An extensible toolkit for finetuning and inference of large foundation models},
author={Diao, Shizhe and Pan, Rui and Dong, Hanze and Shum, Ka Shun and Zhang, Jipeng and Xiong, Wei and Zhang, Tong},
journal={arXiv preprint arXiv:2306.12420},
year={2023}
}
@article{dong2023raft,
title={Raft: Reward ranked finetuning for generative foundation model alignment},
author={Dong, Hanze and Xiong, Wei and Goyal, Deepanshu and Pan, Rui and Diao, Shizhe and Zhang, Jipeng and Shum, Kashun and Zhang, Tong},
journal={arXiv preprint arXiv:2304.06767},
year={2023}
}
4.3 使用LISA内存优化技术
当您使用LMFlow中的LISA内存优化技术(如--use_lisa参数或run_finetune_with_lisa.sh脚本)时,需同时引用基础论文和LISA专项论文:
@article{diao2023lmflow,
title={Lmflow: An extensible toolkit for finetuning and inference of large foundation models},
author={Diao, Shizhe and Pan, Rui and Dong, Hanze and Shum, Ka Shun and Zhang, Jipeng and Xiong, Wei and Zhang, Tong},
journal={arXiv preprint arXiv:2306.12420},
year={2023}
}
@article{pan2024lisa,
title={LISA: Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning},
author={Pan, Rui and Liu, Xiang and Diao, Shizhe and Pi, Renjie and Zhang, Jipeng and Han, Chi and Zhang, Tong},
journal={arXiv preprint arXiv:2403.17919},
year={2024}
}
4.4 同时使用RAFT和LISA
当您在研究中同时使用了RAFT对齐算法和LISA内存优化技术时,需引用全部三篇论文:
@article{diao2023lmflow,
title={Lmflow: An extensible toolkit for finetuning and inference of large foundation models},
author={Diao, Shizhe and Pan, Rui and Dong, Hanze and Shum, Ka Shun and Zhang, Jipeng and Xiong, Wei and Zhang, Tong},
journal={arXiv preprint arXiv:2306.12420},
year={2023}
}
@article{dong2023raft,
title={Raft: Reward ranked finetuning for generative foundation model alignment},
author={Dong, Hanze and Xiong, Wei and Goyal, Deepanshu and Pan, Rui and Diao, Shizhe and Zhang, Jipeng and Shum, Kashun and Zhang, Tong},
journal={arXiv preprint arXiv:2304.06767},
year={2023}
}
@article{pan2024lisa,
title={LISA: Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning},
author={Pan, Rui and Liu, Xiang and Diao, Shizhe and Pi, Renjie and Zhang, Jipeng and Han, Chi and Zhang, Tong},
journal={arXiv preprint arXiv:2403.17919},
year={2024}
}
5. LMFlow相关资源引用
5.1 GitHub仓库引用
如果您需要引用LMFlow的GitHub仓库,可使用以下格式:
@software{lmflow_github,
author = {OptimalScale},
title = {LMFlow: An Extensible Toolkit for Finetuning and Inference of Large Foundation Models},
url = {https://gitcode.com/gh_mirrors/lm/LMFlow},
year = {2023}
}
5.2 模型权重引用
LMFlow提供的预训练模型(如Robin系列)可按以下格式引用:
@software{robin_model,
author = {OptimalScale},
title = {Robin-7B: A Fine-tuned LLaMA Model with LMFlow},
url = {https://gitcode.com/gh_mirrors/lm/LMFlow},
year = {2023}
}
6. 常见问题解答
6.1 如何确定需要引用哪些论文?
- 使用基础功能(微调、推理)→ 引用LMFlow基础论文
- 使用RAFT对齐 → 引用基础论文 + RAFT论文
- 使用LISA优化 → 引用基础论文 + LISA论文
- 同时使用多项技术 → 引用所有相关论文
6.2 arXiv预印本与正式发表版本的引用区别?
目前LMFlow相关论文均为arXiv预印本。当正式发表后,应更新引用格式以反映期刊/会议信息。例如,若LMFlow基础论文在NeurIPS 2024发表,引用格式应更新为:
@inproceedings{diao2024lmflow,
title={Lmflow: An extensible toolkit for finetuning and inference of large foundation models},
author={Diao, Shizhe and Pan, Rui and Dong, Hanze and Shum, Ka Shun and Zhang, Jipeng and Xiong, Wei and Zhang, Tong},
booktitle={Advances in Neural Information Processing Systems},
year={2024}
}
6.3 是否需要引用LMFlow的依赖库?
LMFlow依赖的第三方库(如Hugging Face Transformers、DeepSpeed等)若在您的研究中起到关键作用,应单独引用其相关论文。
7. 总结
正确引用LMFlow相关研究论文是学术诚信的基本要求,也是推动大模型领域开放协作的重要基础。本指南提供了LMFlow工具包及其核心算法(RAFT、LISA)的标准引用格式,涵盖了不同研究场景下的引用组合方式。我们鼓励研究者在使用LMFlow进行学术研究时,严格按照本指南的规范引用相关论文,以支持LMFlow项目的持续发展。
若您在引用过程中遇到任何问题,欢迎通过LMFlow GitHub仓库的Issue功能提问,我们将及时提供帮助。
请点赞、收藏、关注,以获取LMFlow最新研究进展和引用更新!
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



