LLMs-其他
文章平均质量分 86
CSPhD-winston-杨帆
合作:winstonyf@qq.com 暨大博士生 川师大研究生 前成都东软教师
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
多头注意力的公式理解
Transformer模型中的自注意力(Self-Attention)机制利用多头注意力来处理句子中的词汇,从而捕捉词汇之间的关系。每个注意力头在不同的线性变换下,关注不同的特征,从而捕获输入数据中的不同方面。在多头注意力机制中,我们对查询、键和值进行不同的线性变换,将其映射到不同的子空间,然后在这些子空间中分别计算注意力。总结来说,多头注意力通过并行计算和不同子空间的表示来提高模型的表达能力、稳定性和泛化能力,是现代深度学习模型尤其是Transformer架构中非常重要的组件。原创 2024-07-10 22:46:23 · 1162 阅读 · 0 评论 -
Bahdanau 注意力中上下文变量 ′的公式解释
总结起来,公式 (10.4.1) 描述了在每个解码时间步 ( t’ ),如何根据前一个解码时间步的隐状态 (\mathbf{s}_{t’ - 1}) 和所有编码时间步的隐状态 (\mathbf{h}其中,(\mathbf{v})、(\mathbf{W}_1) 和 (\mathbf{W}_2) 是可学习的参数。最后,使用注意力权重 (\alpha_{t’, t}) 对编码器隐状态 (\mathbf{h}注意力权重 (\alpha(\mathbf{s}_{t’ - 1}, \mathbf{h}原创 2024-07-06 15:54:19 · 1265 阅读 · 0 评论 -
齐普夫定律在循环神经网络中的语言模型的应用
齐普夫定律(Zipf’s Law)是一种描述自然语言中单词频率分布的经验法则,它指出在一个文本或语料库中,单词的频率与其出现的排名成反比关系。具体来说,频率最高的单词出现的次数最多,排名第二的单词出现的次数大约是最高频单词的一半,排名第三的单词出现次数是最高频单词的三分之一,依此类推。这里,( \log n_i ) 是单词频率的对数,( \log i ) 是单词排名的对数,( \alpha ) 是斜率,( c ) 是截距。上面的代码统计了文本数据中的词频,并在对数坐标系中绘制了词频图。原创 2024-06-12 19:59:41 · 1976 阅读 · 1 评论 -
2025年4月19日 记录大模型出现的计算问题
2025年4月19日 记录大模型出现的计算问题,用了四个大模型计算json的数值,3个错误,1个正确。原创 2025-04-19 19:55:28 · 428 阅读 · 0 评论 -
论文翻译:arxiv-2024.Wei-Lin Chiang.Chatbot Arena: An Open Platform for Evaluating LLMs by Human
大型语言模型(LLMs)已经解锁了新的能力和应用;然而,评估与人类偏好的一致性仍然面临重大挑战。为了解决这个问题,我们介绍了Chatbot Arena,一个基于人类偏好评估LLMs的开放平台。我们的方法采用成对比较方法,并通过众包利用多样化用户群的输入。该平台已经运行了几个月,累积了超过24万张选票。本文描述了该平台,分析了我们迄今为止收集的数据,并解释了我们使用的久经考验的统计方法,用于有效和准确地评估和排名模型。我们确认众包问题足够多样化且具有区分度,众包人类选票与专家评分者的结果非常一致。原创 2024-09-24 20:33:48 · 372 阅读 · 0 评论 -
2024-9-18 大语言模型问题 美团王兴:745万骑手获800亿报酬,人均多少问题
我就产生了个问题,745万骑手获800亿报酬,人均多少钱。我就把这个问题输入到各个大模型,结果答案不一致,并且差异还挺大的。原创 2024-09-18 12:11:15 · 630 阅读 · 0 评论 -
论文翻译:PMLR-2023 Automatically Auditing Large Language Models via Discrete Optimization
对大型语言模型进行审计以发现意外行为对于预防灾难性的部署至关重要,但这一任务仍然具有挑战性。在这项工作中,我们将审计视为一个优化问题,其中我们自动搜索匹配期望目标行为的输入-输出对。例如,我们可能旨在找到一个以“Barack Obama”开头的非毒性输入,而模型将其映射到一个有毒的输出。这个优化问题难以解决,因为可行点集稀疏,空间是离散的,而且我们审计的语言模型是非线性和高维的。为了应对这些挑战,我们引入了一个离散优化算法ARCA,它联合并高效地优化输入和输出。原创 2024-09-11 11:02:31 · 856 阅读 · 0 评论 -
论文翻译:An Evaluation System for Large Language Models based on Open-Ended Questions
我们设计了一个基于开放式问题的大语言模型评估系统。该系统使用开放式问题对大型语言模型(LLMs)进行了多维度评估,并以评估报告的形式呈现评估结果。目前,大语言模型的评估通常存在两个显著的限制(1)评估方法往往是单一的,导致结果可信度较低。(2)大多数评估基于封闭式问题数据集,将生成性大型语言模型视为判别性模型,这未能充分反映这些模型的高输出灵活性特点。针对这两个限制,我们提出了一个基于开放式问题的LLMs评估系统。我们在适配的开源数据集上的实验证明了该系统的有效性。原创 2024-09-03 20:25:21 · 895 阅读 · 0 评论 -
论文阅读:基于大模型的教学智能体构建与应用研究
随着生成式人工智能的快速发展,基于大模型的智能体已经逐步具备了多模态感知、检索增强生成、推理与规划、交互与进化等能力。该研究提出基于大模型的教学智能体的基本概念与框架,以“大模型”为技术核心,重点构建“教育任务设定”“教育任务规划”“教育能力实现与拓展”“教育内容记忆与反思”“交互协作与动态进化”多个功能模块,支持与多类型对象交互并实现动态进化,涵盖人机交互、多智能体交互以及环境交互。转载 2024-08-31 14:48:24 · 9486 阅读 · 0 评论 -
论文翻译:Scaling Instruction-Finetuned Language Models
在一系列以指令形式表述的数据集上对语言模型进行微调已被证明可以提高模型性能并推广到未见任务。在本文中,我们探索了指令微调,特别关注(1)扩展任务数量,(2)扩展模型规模,以及(3)在思维链数据上进行微调。我们发现,上述方面的指令微调显著提高了多种模型类别(PaLM、T5、U-PaLM)、提示设置(零次、少次、思维链)和评估基准(MMLU、BBH、TyDiQA、MGSM、开放式生成、RealToxicityPrompts)的性能。原创 2024-08-29 12:43:09 · 1427 阅读 · 0 评论 -
论文翻译:A Survey on In-context Learning
随着大型语言模型(LLMs)能力的增强,上下文学习(ICL)已成为自然语言处理(NLP)的新范式,其中LLMs基于少数示例增强的上下文进行预测。探索ICL以评估和推断LLMs的能力已成为一个显著趋势。在本文中,我们旨在调查和总结ICL的进展和挑战。我们首先提出ICL的正式定义,并阐明其与相关研究的相关性。然后,我们组织和讨论先进技术,包括训练策略、提示设计策略和相关分析。此外,我们探索了ICL的各种应用场景,如数据工程和知识更新。最后,我们讨论了ICL的挑战,并为进一步研究提出潜在方向。原创 2024-08-23 16:21:23 · 914 阅读 · 0 评论
分享