- 博客(32)
- 收藏
- 关注
原创 【腾讯】Freeze-Omni: A Smart and Low Latency Speech-to-speech Dialogue Model with Frozen LLM
Freeze-Omni: A Smart and Low Latency Speech-to-speech Dialogue Model with Frozen LLM
2024-12-09 17:39:54
372
原创 【ACL2024】Graph Chain-of-Thought:基于图结构增强LLM的推理能力
在GRAPH-COT框架中,LLMs扮演智能体的角色,它们能够理解任务、制定策略,并在图谱环境中执行操作以达成目标
2024-11-16 20:50:26
956
原创 ICLR2024: 大视觉语言模型中对象幻觉的分析和缓解
最后,我们利用获得的幻觉数据集训练我们的幻觉审校器。提出了轻量级的后处理方法LVLM幻觉审阅器(LURE),通过重建较少幻觉的描述来事后纠正LVLM中的对象幻觉。在减少幻觉方面的影响,我们进行了消融实验,并在表4中报告了结果,其中“原始”代表了MiniGPT-4的描述。为了验证我们的方法的性能增益不是来自于使用额外的数据来训练修订器,我们使用额外的数据集微调了原始LVLM。这个审校器将潜在的幻觉描述作为输入,并将它们转换为准确的。最后,位置因素也发挥了作用,因为由于误解的积累,更多的对象幻觉倾向于。
2024-09-06 17:39:05
781
1
原创 幻觉问题综述
训练和推理中的幻觉(编码器不能很好的表征,解码错误,曝光偏差:训练时解码器被鼓励预测以真实前缀序列为条件的下一个标记,推理时根据自身先前生成的歷史序列来生成下一个标记;:编码器改进(双编码),注意力机制改进(稀疏注意力/归纳注意力),解码器改进(多分支解码器/不确定感知解码器)可控生成(受控重采样、可手动提供的控制代码或自动预测的控制代码):短句修剪,去语境化,语法修改,自动数据清洗/过滤,信息增强。其他方法:正则化/损失重构/后处理(生成+细化)数据引发的幻觉(来源不同引发分歧)
2024-09-04 21:15:01
415
原创 幻觉消除论文阅读:通过诱导幻觉缓解大型语言模型的幻觉
可以观察到,带有微调驱动的幻觉诱导的 ICD 显著提高了 Llama2-7B-Chat 在 TruthfulQA 上的真实性(MC1/2/3 分数分别提高了 +8.70/14.18/13.13)受其启发,我们通过微调或零样本提示,可以很容易地从大型语言模型 (LLM) 中诱导出幻觉,而对幻觉进行惩罚可以有效地引导 LLM 生成更多的事实性内容。普通 CD 的基本思想是通过对比两个参数规模不同的语言模型来确定下一个词的概率,后续研究者发现CD可以增强LLM的推理能力/提高事实性。微调后很容易被操纵/越狱,
2024-09-02 09:29:09
917
1
原创 对话图像编辑研究综述
(即 TediGAN 中的特定属性选择和 StyleCLIP 中的分组映射)。这种经验识别限制了给定一个文本提示,他们必须训练相应的编辑模型。但基于 GAN 的文本 - 图像编辑依旧有一些问题等待解决,例如经典的 StyleCILP 中针对。
2024-08-13 12:07:57
1156
原创 llama3技术报告速读
代码+多语言能力+复杂推理问题(旅行规划)规模(没用MoE,稠密的transformer)(特定能力、与人对齐,例如GPT3)比llama3小很多,性价比高。复杂度较低(SFT+DPO)
2024-07-31 22:20:48
320
原创 FastAPI笔记
例如:uvicorn main:app --host 127.0.0.1 --port 8001 --reload表示指定本地电脑为服务器,端口号为8001。这里,路径参数 item_id 的值会作为read_item函数参数 item_id 的值。如果跳转到 http://127.0.0.1:8000/items/foo,会得到。打开网址,可以看到 {“Hello”: “World”}也可以自己指定要运行的服务器ip和端口号。同时这里指定了类型是int,可以自己定义。刚才一直是get,现在来看post。
2024-07-31 18:25:32
208
原创 安装deepspeed报错:raise MissingCUDAException(“CUDA_HOME does not exist, unable to compile CUDA op(s)“)
【代码】安装deepspeed报错:raise MissingCUDAException(“CUDA_HOME does not exist, unable to compile CUDA op(s)“)
2024-07-24 11:25:48
1232
原创 Qlora微调llama2学习笔记
QLoRA(Quantized Low-Rank Adapter)是一种用于微调大型语言模型(LLM)的高效方法。它通过将大型语言模型进行4位量化,显著减少了模型的内存占用,然后利用低阶适配器(LoRA)对量化后的模型进行微调,以此来保持模型性能的同时降低资源消耗。QLoRA的技术亮点包括使用4位NormalFloat(NF4)量化数据类型,双量化技术,以及分页优化器等创新点。
2024-06-27 00:14:43
615
原创 解决module ‘tensorflow.python.ops.array_ops‘ has no attribute ‘stack‘
【代码】解决module ‘tensorflow.python.ops.array_ops‘ has no attribute ‘stack‘
2024-04-27 14:44:44
239
2
原创 【数据结构】python的一些排序方法
python的一些排序方法一、直接插入排序二、冒泡排序三、简单选择排序四、快速排序一、直接插入排序代码如下(示例):#直接插入排序def insertsort(a): for i in range(len(a)-1): if a[i+1]<a[i]: #print(a) index=i #要点:在j变化时,i也要跟着变(因为涉及元素交换),因此不能直接用i进行循环 for j in range(i
2022-05-13 17:34:15
357
原创 【数据结构】python实现二叉树
文章目录@[TOC](文章目录)一、二叉树的概念二、python代码1.定义抽象类2.定义结点类3.实现二叉树基本操作4.删除操作中用到的两个外部函数5.测试一、二叉树的概念二叉树是n个有限元素的集合,该集合或者为空、或者由一个称为根(root)的元素及两个不相交的、被分别称为左子树和右子树的二叉树组成,是有序树。当集合为空时,称该二叉树为空二叉树。在二叉树中,一个元素也称作一个节点二、python代码1.定义抽象类代码如下(示例):import abcclass BST(metaclass
2022-05-13 17:18:09
2708
原创 2020-11-26
#include<stdio.h>int main(){int a[50] = { 0 }, n, sta, end, i, k = 0, m = 0;scanf_s("%d", &n);for (i = 0; i < n; i++){scanf_s("%d", &a[i]);}i = 0;if (a[i]== a[i + 1]){sta = i; //记录起始下标while (a[i] = a[i + 1]){i++;k++;}en.
2020-11-26 20:24:18
99
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人