
NLG
文章平均质量分 80
彭伟_02
Ph.D NLP in AI
展开
-
Meta发布最强开源模型Llama 3.1!超越GPT4o?
官方博客中,Meta 评估了超过了 150 个基准数据集的性能,比较了 Llama 3.1 与其他模型的能力表现,旗舰模型 Llama 3.1 -405B 在常识、可操作性、数学等一系列任务中可与GPT-4、GPT-4o 和 Claude 3.5 Sonnet 相媲美。在现实场景中,Llama 3.1 405B进行了与人工评估的比较,其总体表现优于GPT-4o和Claude 3.5 Sonnet。Meta 今晚正式发布 Llama 3.1 开源大语言模型,提供 8B、70B 及 405B 参数版本。原创 2024-07-24 09:31:38 · 479 阅读 · 0 评论 -
GPT 4.0 你知道的和你不知道的?
发布GPT-4的API公布技术论文 * 公开System CardChatGPT Plus:集成GPT-4的ChatGPT升级版工具整理:更多有趣MRC文章见:复旦团队发布国内首个模型MOSS 类ChatGPT【OpenAI 多模态预训练】VideoGPT?微软透露GPT-4或将在下周发布GPT4来了?10秒钟做一个网站ChatGPT?听说Biying把它下架了又一个国内类ChatGPT模型?【秘塔科技上线自研LLM大模型「对话写作猫」】BERT用于文本分类方法利用逆向思维的机器阅读理解。原创 2023-03-23 19:48:49 · 2486 阅读 · 0 评论 -
GPT4来了?10秒钟做一个网站
GPT-4是OpenAI在扩展深度学习道路上的最新里程碑。OpenAI期待GPT-4成为一个有价值的工具,通过为许多应用提供动力来改善生活。我们可以期待一下,上手试试来帮助我们完成更多的日常需求,未来几年再把语音加上,可能就能真正实现解放双手,寓教于乐了。更多有趣MRC文章见:复旦团队发布国内首个模型MOSS 类ChatGPTChatGPT?听说Biying把它下架了又一个国内类ChatGPT模型?【秘塔科技上线自研LLM大模型「对话写作猫」】BERT用于文本分类方法利用逆向思维的机器阅读理解相关文献。原创 2023-03-15 10:43:38 · 4622 阅读 · 0 评论 -
【OpenAI 多模态预训练】VideoGPT?微软透露GPT-4或将在下周发布
太绝了!看完ChatGPT之后就感觉OpenAI正在做多模态的预训练语言模型。万万没想到来的这么快。据介绍,GPT-4或将为多模态大模型,将提供完全不同的可能性——例如视频。(离谱到家了!3月10日 消息:微软德国首席技术官 Andreas Braun 在3月9日的 AI 启动活动中透露,微软将在下周推出 GPT-4。大家知道当前的ChatGPT只能处理文本信息,而GPT-4如果支持信息量更丰富的视频模型,显然会对更多领域产生深远影响。原创 2023-03-10 12:14:32 · 1277 阅读 · 0 评论 -
又一个国内类ChatGPT模型?【秘塔科技上线自研LLM大模型「对话写作猫」】
又一个国内类ChatGPT模型?【秘塔科技上线自研LLM大模型「对话写作猫」】说个题外话,今天一大早就收到了Biying的邮件。前段时间不是申请了New Biying的内测吗?下午可以尝试一下玩一会儿。如果体验感还不错或者还有很多bug,那我到时候再写一篇帖子来分享一下。一直期待中国有没有类ChatGPT产品可以出现。昨天,2023年2月27日,秘塔科技上线了自研LLM大模型「对话写作猫」,开始对外公测感兴趣的小伙伴可以点击下方的链接进行尝试。xiezuocat.com/chat看一下他的表现。原创 2023-02-28 12:43:23 · 4735 阅读 · 1 评论 -
复旦团队发布国内首个模型MOSS 类ChatGPT
复旦团队发布国内首个模型MOSS 类ChatGPT首先看到这个标题,还有这个名字,我是正经(zhen jing)的 (bu shi流浪地球?550W?不了解的可以把550W倒过来写,就懂了看到新闻里的一些图片和例子 感觉还行 下面是给的一些事例,当然都给的是好的,这是肯定的就像我们写论文一样,会找good case (bu shi下面是一些比较通用的问题同时它也具备生成列表和表格的一些能力代码生成相关关于伦理道德方面但是还没实测过不能说好不好看到内测链接的那一刻,我是兴奋的原创 2023-02-20 23:12:33 · 5121 阅读 · 1 评论 -
情感支撑对话FADO: Feedback-Aware Double COntrolling Network for Emotional Support Conversation
这一部分我们不仅仅验证了生成的回复的质量,同时我们还对生成的回复以及所采取的策略是否一致进行了验证,其中深蓝色表示是一致的情况,浅蓝色表示的是不一致的情况。今天给大家分享一篇在KBS的关于情感对话的论文。主要思想是从利用用户的情感反馈信息来进行策略选择,并且帮助生成支撑性的回复。对于最后一个样本,我们发现所有的模型都出现了不一致的情况,这有可能是对话历史过长导致的长距离依赖问题。我们还统计了生成的回复和策略之间一致性的得分。发现我们的模型能够大幅度的超越base模型。原创 2023-02-14 12:39:41 · 780 阅读 · 0 评论 -
【四】情感对话 Improving Multi-turn Emotional Support Dialogue Generation with Lookahead Strategy Planning
这篇文章主要考虑的是做一个未来策略的安排,在其中用到了A*搜索算法,分别计算了基于历史,对当前作出的判断以及对未来的一个规划实验效果,充分的说明了模型的有效性。该函数有两部分打分组成,第1部分打分表示的是根据过去的信息来得到当前的一个策略,第2部分的打分是如何考虑未来的信息评估用户的反馈(肯定要选择反馈好的策略)。实验部分主要的是两个实验,第1个是回复生成的实验,第2个是策略预测的实验,那么这个也是给了这些相关的实验来证明模型的有效性。整个模型包含4个部分,左边是编码部分,右边是策略的预测以及解码部分。原创 2022-11-09 11:00:51 · 1242 阅读 · 0 评论 -
【三】情感对话 MISC: A MIxed Strategy-Aware Model Integrating COMET for Emotional Support Conversation 论文阅读
这篇文章的一个创新点其实就在于说一个句子可能是有不同的策略所构成的,所以在进行回复的时候需要考虑混合的策略。但是比较令我奇怪的一个地方,就是作者再进行优化的时候,其实还是用one-hot的标签是进行优化的,因此是否能够准确地学习到多策略的这种情况任然值得改进,以及attention机制也有很大的改进空间。或许这可以成为未来的研究方向之一。靠在座的各位了!抱拳!相关论文整理指路->点这里更多有趣MRC文章见:利用逆向思维的机器阅读理解。相关文献。原创 2022-11-08 10:16:13 · 991 阅读 · 3 评论 -
【二】情感对话 Control Globally,Understand Locally: A Global-to-Local Hierarchical Graph Network for ESConv
今天给大家分享一篇在IJCAI 2022的关于情感对话的论文。该论文由中科院信工所彭伟、胡玥老师团队发表,主要思想是从认知的角度来挖掘用户隐式表达的意图信息,以及建模用户的意图、情感问题和对话历史之间的关系。原创 2022-11-07 10:50:11 · 919 阅读 · 0 评论 -
情感对话识别与生成简述
近年来,随着自然语言处理技术的快速发展,人机对话系统受到了很多关注,并逐渐成为了学术界和工业界的研究热点。人机对话系统不断发展进步,应用范围不断扩大,人们对它也有了更高的要求,希望机器在关注回复内容的基础上,可以与人进行更深入的交流。近期的一些工作表明[10, 13, 15,16, 18-21, 23],在人机对话系统中,除了回复内容之外,机器与人的情感交流也是一个重要问题。人类可以通过语言进行情感上的交流,获得情感上的慰藉,对话系统想要和人类进行有效的情感沟通,就必须具备一定的情感能力。具体来说...转载 2022-06-29 17:16:58 · 3387 阅读 · 0 评论 -
Semantic-Enhanced Explainable Finetuning for Open-Domain Dialogues 论文阅读
Semantic-Enhanced Explainable Finetuning for Open-Domain DialoguesProblem:如何在开放域中进行语义控制?Motivation:目前在一些任务型对话或者是协商和劝说对话当中,对话流会根据对话的act和策略去进行控制。如何在开放域问答将预训练语言模型和Modular diagram进行结合是这篇文章的主要动机。combine pretrained language models with the modular dialogu原创 2022-03-24 17:38:13 · 1417 阅读 · 0 评论 -
A Constrained Text Generation Challenge for Generative Commonsense Reasoning
A Constrained Text Generation Challenge for Generative Commonsense Reasoning发表会议以及作者:2020 EMNLP Findings Allen实验室任务:Given a set of common concepts; the task is to generate a coherent sentence describing an everyday sce- nario using these concepts.githu原创 2022-02-27 22:50:19 · 448 阅读 · 0 评论 -
Glancing Transformer for Non-Autoregressive Neural Machine Translation
Glancing Transformer for Non-Autoregressive Neural Machine Translation 动机贡献做法实验动机NAT’s conditional independence assumption prevents learning word interdependency in the target sentence. (解决内部依赖)Previous methods require multiple passes of decoding,原创 2021-08-13 14:34:11 · 627 阅读 · 0 评论