
自然语言处理
文章平均质量分 78
Law-Yao
数字信号处理与人工智能相关的软硬件系统实现工作。
展开
-
SmoothQunat——LLM激活值量化的等价均衡
基于LLM.int8()的分析,随着语言大模型参数规模增大,激活中的异常值(Outlier)占比会显著上升,导致激活值量化误差增大。将LayerNorm中的gamma系数转移至Weight;使用token-wise限幅减少异常值。通过Activation与Weight的等价均衡变换,改善激活量化。使用token-wise动态量化对激活进行量化;Outlier相关的量化方法。对异常值所在列,使用浮点计算。原创 2023-03-26 14:45:24 · 982 阅读 · 1 评论 -
LLM.int8()——自适应混合精度量化方法
随着参数规模的增加,大模型(如GPT-3,OPT-175B等NLP稠密大模型)的实际部署应用,需要消耗一定的计算/存储成本,且推理响应延迟存在限制。原创 2022-12-04 21:51:41 · 3357 阅读 · 0 评论 -
随笔记录——NLP与ASR的数据增强
自然语言处理(NLP: Natural Language Processing)与语音识别(ASR: Automatic Speech Recognition)都是典型的序列识别任务,现阶段皆可以按Transformer模型架构进行建模处理,如SAN-M、BERT、BART、GPT2、T5、Switch-Transformer等模型。Transformer模型的输入,表示为Sequence embeddings(序列特征),其中NLP的输入Embedding、表示Token的高维矢量编码,ASR的输入特原创 2022-04-05 20:33:27 · 3890 阅读 · 0 评论 -
AdapLeR——基于Adaptive Length Reduction的BERT推理优化
Paper地址:https://arxiv.org/abs/2203.08991GitHub链接:GitHub - amodaresi/AdapLeR通过生成式自监督训练(Generative Self-supervised Learning),预训练模型能够充分掌握语境相关的知识与信息,典型代表如BERT预训练任务MLM、ViT预训练任务MAE、推荐模型预训练任务Next-query Prediction等。对于BERT模型而言,在充分的大规模预训练之后,针对特定的下游任务,凭借语境知识与少量To原创 2022-03-27 20:15:29 · 2224 阅读 · 0 评论 -
随笔记录——不同模态信号、表征与应用
深度学习模型(主要是感知类模型)接受的输入信号,主要包括图像、文本、语音等信号。不同模态的输入信号,经过模型的逐层抽象、转换之后,转变为不同程度的抽象表示,并应用于不同的任务场景。如上图所示,深度学习模型包含前处理、浅层、深层、任务相关层与后处理多个阶段,不同阶段的输入/输出具备不同的含义,简述如下(图像信号处理以CNN模型为例、语音/文本信号处理以BERT/Transformer模型为例):输入信号:模型接收的输入信号,是原始的、或仅初步加工的数据(raw data),包括自然信号(图像、语音原创 2022-01-23 15:38:53 · 3883 阅读 · 0 评论 -
NAS-Bert——确保One-shot与Task-agnostic
Paper地址:https://arxiv.org/abs/2105.14444概述NAS-Bert在大规模预训练阶段(Bert自监督预训练),通过实施权重共享形式的One-shot NAS,实现了Once for all与Task-agnostic两个目的,分别满足不同平台资源约束的压缩需求、以及不同下游任务的迁移训练需求。Method搜索空间:基于Weight-sharing的特点(Single-path One-shot形式),每个Bert layer(进一步细分为2个Sub-laye原创 2021-10-14 16:03:48 · 744 阅读 · 0 评论 -
Hardware-Aware Transformers (HAT)——Transformer模型的NAS策略
paper: https://arxiv.org/abs/2005.14187github: https://github.com/mit-han-lab/hardware-aware-transformers相关论文:once-for-all: https://arxiv.org/abs/1908.09791bigNAS: https://arxiv.org/abs/2003.11142Introduction当需要对Transformer进行NAS的时候,面临两个问题..原创 2021-06-16 11:43:42 · 1135 阅读 · 0 评论