自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 Datawhale AI夏令营-多模态RAG财报问答-task2

检索增强:从外部知识库(财报PDF)获取最新信息,缓解LLM知识滞后问题多模态理解:结合文本与图像信息,实现更全面的语义理解核心任务:基于财报PDF的可溯源多模态问答数据源:仅限提供的图文混排PDF可溯源:必须标注答案出处(文件名+页码)多模态:需同时处理文本与图像问答精准问答:基于检索信息生成答案。

2025-08-09 23:54:29 1597

原创 Datawhale AI夏令营-TASK3-车次信息问答数据集构建与LoRA精调学习笔记

数据处理:Markdown表格解析需注意格式规范性,手动解析更可靠;问答生成:全量覆盖需按实体(车次)循环,确保每个样本的多类型问题生成;格式转换:Alpaca格式需严格保留和output字段,避免多余标记;参数调优:模型架构(如QWEN-8B的MQA)是参数选择的核心依据,需优先适配模块和学习率。通过以上流程,可构建高质量SFT数据集并高效完成LoRA精调,为列车信息智能查询模型提供坚实基础。

2025-07-30 23:33:41 1477 1

原创 Datawhale AI夏令营-TASK2:理解赛事重难点

LoRA(Low - Rank Adaptation of Large Language Models)微调可以在不改变预训练模型整体结构的前提下,通过少量的训练数据对模型进行微调,使其更好地适应特定任务。模型,这可能是基于其在语言理解和生成方面的性能,以及对列车班次相关问答任务的适配性。不同的模型在参数规模、擅长领域等方面存在差异,例如有些模型更擅长文本生成,有些则在知识问答方面表现出色。同时,还要考虑模型的响应时间和资源消耗,特别是在处理大量数据时,性能较差的模型可能会导致处理速度过慢或占用过多资源。

2025-07-27 23:32:05 1140

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除