自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 【第33次CSP】

第33次CSP做题记录提示:以下是本篇文章正文内容,下面案例可供参考简单写了两个基础题,思路比较简单,主要是基础C++语法以及STL的应用。

2025-03-25 00:56:53 304

原创 【Datawhale AI 夏令营第四期 Task4 :源大模型微调实战】

通过训练极少的模型参数,同时保证微调后的模型表现可以与全量微调相媲美。常用的轻量化微调技术有LoRA、Adapter 和 Prompt Tuning。LoRA 是通过低秩矩阵分解,在原始矩阵的基础上增加一个旁路矩阵,然后只更新旁路矩阵的参数。本节内容以Lora为例,介绍了进行大模型微调的基本方法。同时在课后作业中,完成了更换新的数据集并建立标签,较为成功的训练好了模型。搭建Demo实现了命名体识别的任务。

2024-08-21 23:25:07 789

原创 Datawhale AI 夏令营 第四期 Task3:源大模型RAG实战

为了解决这一问题,提升RAG效果,研究者提出增加一个二阶段检索——重排 (Rerank),即利用 重排模型(Reranker),使得越相似的结果排名更靠前。本文章中选用基于BERT架构的向量模型 bge-small-zh-v1.5,它是一个4层的BERT模型,最大输入长度512,输出的向量维度也为512。在没有RAG时,如果模型只依赖自己的底层知识进行回答,就很容易出现幻觉,回答中会出现知识库中没有的知识,或者是出现明显的错误。使用RAG之后,模型能够结果知识库中的知识,准确回答用户的提问。

2024-08-17 20:24:58 1066

原创 Datawhale AI夏令营第四期:动手学大模型应用全栈开发task1

跑通baseline搭建第一个自己的编程助手

2024-08-08 22:30:43 594

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除