- 博客(21)
- 收藏
- 关注
原创 Self-Instruct:将语言模型与自我生成的指令对齐
SELF-INSTRUCT是一个通过引导他们自己的生成来提高预训练语言模型的指令跟随能力的框架。
2024-08-01 20:56:25
1658
原创 轩辕2.0:具有数百亿参数的大型中国金融聊天模型
本文提出了最大的中文金融聊天模型XuanYuan 2.0,并且提出了一种新的训练方法,称为混合调整,以减轻灾难性遗忘。通过将一般领域与特定领域的知识相结合,整合预训练和微调阶段,XuanYuan 2.0 实现了在中文金融领域提供精确和上下文相关响应的显着能力。
2024-08-01 15:54:05
733
原创 机器学习之神经网络 基本概念
这样的结构与信息反馈过程,使得网络在t时刻的输出状态不仅与t时刻的输入有关,还与t-1时刻的网络状态有关,从而能处理与时间有关的动态变化Elman 网络[Elman,1990]是最常用的递归神经网络之一,其结构如图,它的结构与多层前馈网络很相似,但隐层神经元的输出被反馈回来,与下-时刻输入层神经元提供的信号一起,作为隐层神经元在下一时刻的输入。理想中的激活函数是图(a)所示的阶跃函数,它将输入值映射为输出值“0”或“1”,显然“1”对应于神经元兴奋,“0”对应于神经元抑制。
2024-07-31 18:25:57
1242
原创 机器学习之决策树 基本概念
决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力强的决策树,其基本流程遵循简单且直观的“”(divide-and-conquer)策略。
2024-07-30 19:22:39
646
原创 部署langchain-chatchat 0.3.1.3版本
本文主要讲解如何在AutoDL算力云平台部署langchain-chatchat0.3.1.3版本
2024-07-26 12:04:24
356
原创 基于开源大型语言模型的可解释逻辑KBQA方法
本文章主要讲解分析《An interpretable logic KBQA method based onopen-source large language models》
2024-07-23 14:51:46
951
原创 ChatKBQA: 使用微调大模型生成检索的知识库问答框架
本文章主要讲解分析《ChatKBQA: A Generate-then-Retrieve Framework for Knowledge Base Question Answering with Fine-tuned Large Language Models》这篇论文。
2024-07-23 09:53:02
1412
1
原创 Git 发送Pull Request请求
Tips:Fork是将别人的代码复制到自己的仓库中,把它变成我们自己的独立代码仓库,然后在自己的仓库里进行开发,修改提交等操作。Fork之后可以向原作者提交Pull Request请求,把自己修改后的代码提交到原作者的代码仓库中,帮忙原作者完善项目。最后再回顾一下Pull Request的作用:你下载了别人的代码,进行修改完善后想让别人接纳你的新代码 ,那么你上传文件并提出请求。原作者接受你的代码后,在他的仓库里就可以看到你的新代码咯!Step 7: 最后,在原作者的仓库里可以找到你上传的文件。
2024-04-21 18:11:21
1106
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人