大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2022年底,OpenAI 推出的基于 GPT-3.5 的大型语言模型 ChatGPT,由于其优秀的表现,ChatGPT 及其背后的大型语言模型迅速成为人工智能领域的热门话题,吸引了广大科研人员和开发者的关注和参与。

为了方便大家阅读,只列出了论文标题、AMiner AI综述等信息,如果感兴趣可点击查看原文,PC端数据同步(收藏即可在PC端查看),每日新论文也可登录小程序查看。
如果想要对某篇论文进行深入对话,可以直接复制论文链接到浏览器上或者直达AMiner AI页面:
https://www.aminer.cn/chat/g/explain
Parallelized Autoregressive Visual Generation
【要点】:本文提出了一种简单有效的并行化自回归视觉生成方法,通过识别视觉标记间的依赖关系,实现了在不损失模型优势的前提下提高生成效率。
【方法】:作者基于视觉标记的依赖性,开发了一种生成策略,能够并行生成依赖性弱的远端标记,同时保持强依赖性的局部标记按顺序生成。
【实验】:通过在ImageNet和UCF-101数据集上的实验,证明了该方法在图像和视频生成任务中,能够实现3.6倍的效率提升且保持图像质量,或在质量略有下降的情况下实现9.5倍的效率提升。

最低0.47元/天 解锁文章
2万+

被折叠的 条评论
为什么被折叠?



