自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 大模型进行语言翻译由编码器提取特征后是怎么对应到目标语言的?

源语言(英语): “The cat sits on the mat.”目标语言(法语): “Le chat se tient sur le tapis.”

2025-02-13 17:55:38 189

原创 self-attention自注意力机制

归一化就是把一组数据进行计算这一个数据在这组数据中占比的概率分布?比如经过第三个步骤的关系计算得出【“我”】这句话的内积是【3.2,2.3,1.8,5.1】然后经过一个E的x幂的映射得到【140,40,30,180】然后经过归一化计算:【0.358,0.102,0.077,0.461】(就是“我”这个词=140/(140+40+30+180),整个组的词概率相加等于1)

2025-02-13 16:46:08 373

原创 使用llamafactory进行量化训练bitsandbytes的版本冲突问题

这里我们选用的是Qianwen1.5——1.8Bchat,训练方式我们选用的是qlora8位的量化等级更小的量化等级,加载的数据量会更多‌但同时会带来精度上的误差。很小的误差几乎可以忽略不计,关键是你的模型训练的强度。

2025-01-23 15:55:55 325

原创 LlamaFactory Lora 合并大模型,GGUF 转换与 Ollama 部署Open_WebUI全流程

使用ollama create命令创建自定义模型```![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/1c17d68d882e47ab9c6ab056bdda6e00.png)## 3.5 运行模型。

2025-01-23 15:16:27 1681

原创 解锁 RAG 系统搭建:用垂域数据强化 LLM 能力

向量是一种有大小和方向的数学对象。它可以表示为从一个点到另一个点的有向线段。例如,二维空间中的向量可以表示为xy(x,y)xy,表示从原点00(0,0)00到点xy(x,y)xy的有向线段。以此类推,我可以用一组坐标x0x1xN−1x0​x1​xN−1​表示一个NNN维空间中的向量,NNN叫向量的维度。

2025-01-22 11:45:41 909

原创 解决AutoDL服务器上使用LLamaFactory微调大模型cuda/pytorch/python/auto-gptq/vllm/版本冲突的问题

使用LLamaFactory微调大模型时,很多依赖的版本关系复杂,很容易出现版本冲突的问题,这里主要涉及到cuda/pytorch/python/auto-gptq/vllm/版本的选择,我在查看了很多博客和技术资料后在autoDl上进行多个版本的组合实验,特此记录一下。提示:这里尽量选RTX4090的显卡,同样的版本我在RTX的RTX3080显卡上还是会出现版本不兼容的问题:为此我特地查了一下两个显卡的架构,RTX4090的架构采用了Ampere架构,而采用的是RTX3080Turing架构‌。

2025-01-21 10:52:51 948

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除