
AI
文章平均质量分 90
chansonzhang
这个作者很懒,什么都没留下…
展开
-
Windows 安装 DeepSpeed
Windows 安装 DeepSpeed原创 2024-06-25 21:02:38 · 1162 阅读 · 0 评论 -
Training language models to follow instructions with human feedback
InstructGPT: SFT + RLHF with PPO(目标函数:RM - KL+PTX objective)原创 2024-04-02 16:21:53 · 398 阅读 · 0 评论 -
LaMDA: Language Models for Dialog Applications
通过标注数据微调和工具调用来提升对话模型的 safety 和 groundedness原创 2024-03-27 11:00:06 · 373 阅读 · 0 评论 -
Learning to summarize from human feedback
使用强化学习微调总结生成模型原创 2024-03-19 17:32:12 · 356 阅读 · 0 评论 -
西安雁塔未来人工智能计算中心算力成本分析
西安雁塔未来人工智能计算中心的算力大概花了多少钱原创 2024-03-05 22:19:54 · 963 阅读 · 0 评论 -
Fine-Tuning Language Models from Human Preferences
在人类偏好上训练奖励模型,然后使用强化学习微调预训练语言模型原创 2023-12-30 12:57:21 · 1323 阅读 · 0 评论 -
西瓜书公式(10.31)的推导
与 Isomap 试图保持近邻样本之间的距离不同,局部线性嵌入(Locally Linear Embedding, 简称 LLE)试图保持邻域内样本之间的线性关系。西瓜书 10.5.2 节 局部线性嵌入。表示要求特征向量是单位向量)。则式 (10.29) 可重写为。LLE 在低维空间(维度为。进行特征值分解后最小的。个特征值对应的特征向量(LLE 先为每个样本。原创 2023-07-22 19:50:53 · 243 阅读 · 0 评论 -
Learning from Dialogue after Deployment: Feed Yourself, Chatbot!
让机器人在对话中学习原创 2023-06-17 23:09:09 · 513 阅读 · 0 评论 -
西瓜书公式(10.24)的推导
在西瓜书 10.4 节 “核化线性降维” 中,引入了一个映射函数。是高维空间中的一个标准正交基。映射到高维特征空间中,即。的具体形式,于是引入核函数。由前文中的推导可以得到。一般情形下,我们不清楚。原创 2023-06-10 13:31:05 · 1259 阅读 · 0 评论 -
Dialogue Transformers
Rasa 中的 Transformer Embedding Dialogue (TED) 对话策略原创 2023-02-11 21:03:49 · 608 阅读 · 1 评论 -
CGMH: Constrained Sentence Generation by Metropolis-Hastings Sampling
通过 MH 采样实现带约束的句子生成原创 2022-11-26 15:44:05 · 982 阅读 · 0 评论 -
PADA: Example-based Prompt Learning for on-the-fly Adaptation to Unseen Domains
Source Domain -> DRF -> Example-specific Prompt -> Unseen Domain原创 2022-10-22 20:48:13 · 575 阅读 · 0 评论 -
Jax 中的 Autograd 和 PyTorch 中的 Autograd 有何联系?
其实都有 HIPS/autograd 血统原创 2022-09-28 07:33:48 · 556 阅读 · 0 评论 -
SimCSE: Simple Contrastive Learning of Sentence Embeddings
仅使用标准的 dropout 作为噪声原创 2022-08-06 19:57:30 · 447 阅读 · 0 评论 -
CLEAR: Contrastive Learning for Sentence Representation
数据增强+对比学习+MLM原创 2022-06-25 19:08:02 · 773 阅读 · 0 评论 -
DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations
使用自监督对比学习来学习文本表示原创 2022-06-18 15:34:36 · 332 阅读 · 0 评论 -
An Unsupervised Sentence Embedding Method by Mutual Information Maximization
IS-BERT: 基于句子表示与局部 n-gram 表示互信息最大化来进行无监督句子表示学习原创 2022-05-28 20:46:09 · 342 阅读 · 0 评论 -
Sentence Meta-Embeddings for Unsupervised Semantic Textual Similarity
将预训练 sentence encoders 集成到 sentence meta-embeddings 中,解决无监督 STS 任务。原创 2022-05-28 14:49:08 · 192 阅读 · 0 评论 -
Multi-View Domain Adapted Sentence Embeddings for Low-Resource Unsupervised Duplicate Question Detec
MV-DASE 基于 GCCA 合并了多种不同的 embedding原创 2022-04-10 17:40:26 · 923 阅读 · 0 评论 -
Domain Adaptive Dialog Generation via Meta Learning
DAML原创 2022-04-09 10:25:33 · 254 阅读 · 0 评论 -
Overview of the English Slot Filling Track at the TAC2014 Knowledge Base Population Evaluation
Abstract概述了 TAC2014 Knowledge Base Population (KBP) evaluation 中的的词槽填充赛道 (English Slot Filling (SF) track)。KBP 旨在促进从自由文本中提取命名实体和数值型实体之间的二元关系的研究。今年(2014)的主要变化是:包含歧义查询接受通过推断得到的输出对任务和输入格式的简化,移除了 query 中实体对于知识库的引用最高得分为 36.72 F1,中位数为 19.80 F1。1 Introd原创 2022-03-19 19:02:36 · 280 阅读 · 0 评论 -
Generating Datasets with Pretrained Language Models
使用大型预训练语言模型生成语义文本相似度数据集原创 2022-03-14 21:37:51 · 430 阅读 · 0 评论 -
NLP论文共读计划
NLP 之路原创 2021-07-15 11:07:39 · 812 阅读 · 3 评论 -
Unsupervised Data Augmentation for Consistency Training
有限的标注数据也能带来很好的性能原创 2022-03-12 17:36:07 · 4572 阅读 · 0 评论 -
Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Process
prompt-based learning 综述原创 2022-03-05 22:36:49 · 342 阅读 · 0 评论 -
Language Models as Knowledge Bases?
LAMA is a probe to test the factual and commonsense knowledge in language models.原创 2022-01-28 21:23:33 · 1112 阅读 · 0 评论 -
Parameter-Efficient Transfer Learning for NLP
对于 N 个下游任务,fine-tuning 需要 N 倍预训练模型的参数量,而 Adapter 可以只用接近 1 倍的参数量实现类似的性能。原创 2022-01-22 21:06:08 · 2424 阅读 · 0 评论 -
Effective Approaches to Attention-based Neural Machine Translation
global attention & local attention原创 2022-01-15 12:24:32 · 406 阅读 · 0 评论 -
Synthetic QA Corpora Generation with Roundtrip Consistency
答案抽取 + 问题生成 + roundtrip consistency原创 2022-01-11 19:39:27 · 527 阅读 · 0 评论 -
Learning to Ask: Neural Question Generation for Reading Comprehension
基于 attention 和 seq2seq 的问题生成原创 2022-01-08 20:54:13 · 597 阅读 · 0 评论 -
Latent Retrieval for Weakly Supervised Open Domain Question Answering
第一个 retriever 和 reader 端到端联合学习的开放领域问答系统原创 2022-01-03 18:55:53 · 770 阅读 · 0 评论 -
DeepRank: A New Deep Architecture for Relevance Ranking in Information Retrieval
基于深度学习的 IR 排序模型原创 2022-01-02 19:46:32 · 514 阅读 · 0 评论 -
From RankNet to LambdaRank to LambdaMART: An Overview
LambdaMART 是 LambdaRank 的提升树版本原创 2022-01-01 19:29:30 · 561 阅读 · 0 评论 -
Learning to Rank with Nonsmooth Cost Functions
在 RankNet 的基础上改进而来原创 2021-12-22 21:45:29 · 794 阅读 · 0 评论 -
The Second Conversational Intelligence Challenge (ConvAI2)
开发领域对话比赛原创 2021-11-27 20:54:26 · 960 阅读 · 0 评论 -
ELMo: Deep contextualized word representations
基于双向语言模型的词表示原创 2021-11-20 22:49:18 · 572 阅读 · 0 评论 -
Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer
一种迁移学习的统一框架原创 2021-11-14 20:22:15 · 804 阅读 · 0 评论 -
A BERT Baseline for the Natural Questions
Natural Questions 数据集上的新基线原创 2021-11-06 16:37:03 · 271 阅读 · 0 评论 -
BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation ...
双向自回归 Transformer,文本生成效果好原创 2021-10-30 19:39:26 · 482 阅读 · 0 评论 -
Deep Unordered Composition Rivals Syntactic Methods for Text Classification
一个小而美的深度模型原创 2021-10-23 22:12:44 · 282 阅读 · 0 评论