
人工智能
人工智能
_沧海桑田_
ACL/NAACL/EMNLP/COLING审稿人,
MOD大侠梦/MOD禾下霸业作者。
github.com/guotong1988
展开
-
Practice Lessons for AI Applications
Rule-based data cleaning is very important in rule-match and fuzzy-match algorithm.Everything is classification, so classification solves all. Also, everything is mapping to another dimension to be understand.What is mapping? Mapping solves all:text-mapTo原创 2024-08-05 21:35:28 · 106 阅读 · 0 评论 -
Three basic starting points to do AI
Computers have been based on memory/storage for so many years. Don’t try to come up with something else.For so many years, AI has been based on fixed precise rules or fuzzy matching rules. Don’t think about coming up with the third one by yourself.View dee原创 2024-08-01 09:58:47 · 285 阅读 · 0 评论 -
the definition of my AGI should be defined
AGI should outperform human in performance, not in speed.So calculator is not AGI, because calculator only outperform human in speed.AlphaGo is a kind of AGI.ChatGPT’s baseline is a human with the search engine, so ChatGPT is not AGI.原创 2024-05-15 15:00:00 · 187 阅读 · 1 评论 -
减少歧义数据的原则,同样适用于文本生成任务
因为实际应用时,其实我们不在乎 生成多样性 问题,因为 多样性高 不如 结果准确,如果我们认为下面情况里。类似我们也基于统计,保留出 无歧义 的用户行为,作为训练数据集,比如用户的 搜索-订单 行为,无论文案结果对不对,但真正应用时,模型也是需要一个 无歧义 的训练数据集,类似我们也可让 同一条数据 给 多个人标注,然后选择“投票”最高的结果,我们基于统计,可以得到做到这点,比如让ChatGPT多次生成。广义来讲,任何机器学习任务都可看成分类任务,如果数据中出现这样歧义的情况,则模型预测。原创 2023-07-03 12:31:49 · 737 阅读 · 0 评论 -
加一个特征的前提是 这个特征确实能影响到很多target
我们的类目体系里,如果定义了 男生健身器材 和 女生健身器材,而不是统一只有一个 健身器材 的类目,那么这个标签初步看是有效果的。有这个标签的商品 和无这个标签的商品 的时候,它的target-label是否受到影响。这时,到底应不应该加一种标签 作为新特征加入到item类目分类模型的输入里呢?如果一个商品是杠铃,它的标签是男生,另一个商品也是杠铃,它的标签是女生,还一个商品也是杠铃,它的标签为空,item有它的一些属性/标签,但是不是每个item都有标签,比如item类目分类,原创 2023-05-09 17:40:42 · 689 阅读 · 0 评论 -
ChatGPT的Reward模块的替代方案
因为本质我们需要的是优质的text-generation格式的数据而已。原创 2023-04-07 09:17:53 · 696 阅读 · 0 评论 -
基于单词生成句子的重要trick——padding和truncation
如果不加padding和truncation处理的话,在keywords的长度不同的情况下,预测的时候,会出现生成结果也是keywords里的一部分的情况,truncation(舍弃长度多出的token)到相同的长度。padding(补齐)到相同的长度。原创 2023-03-24 12:02:47 · 187 阅读 · 0 评论 -
降低标注难度/提升标注速度 的简单有效方法
比如NER(句子中关键词抽取)任务,要标出多种实体,选择不在一次阅读时 标出所有结果,而每次阅读 标一种结果。(这样同时标注人员思维跳跃也少)比如多分类任务,要针对某几种类别优化时,原来从100类里标,如果可能,减少要标的类的数量。甚至把 多选题 简化为 二选一的题。甚至把让标注人员 写出一段答案 简化为 从候选中挑选答案。比如在标注界面上调整,方便 复制-粘贴 标注的结果。原创 2023-03-22 15:04:16 · 116 阅读 · 0 评论 -
GPT-4 / ChatGPT 解读3---没有前置的任务分类模型
意图分类‘内置’在prompt里了。原创 2023-03-17 15:26:35 · 395 阅读 · 1 评论 -
GPT-4 / ChatGPT 解读2---训练数据示例
68页的InstructGPT paper:60页的GPT-4 technical report:原创 2023-03-15 11:19:01 · 219 阅读 · 0 评论 -
GPT-4 / ChatGPT 解读1---把公开数据集转成GPT的prompt型模版
68页的InstructGPT paper:60页的GPT-4 technical report:https://cdn.openai.com/papers/gpt-4.pdf举例:举例:举例:举例:原创 2023-03-15 09:57:45 · 283 阅读 · 0 评论 -
保证标注数据质量的简单有效方法
实际是王道效果原创 2023-01-14 09:11:58 · 130 阅读 · 0 评论 -
Reinforce算法 通俗讲解。梯度不可导 是什么
梯度不可导的情况出现:一般为强化学习中select_action这步,比如从输出的action_prob里比如argmax出一个action,argmax这步是 梯度不可导 的(对比 可导的猫狗分类任务),这时要训练有select_action这步的网络的方法就是reinforce算法,即每个action的监督label是用这个action的reward来出loss的,即loss = 0.0for reward, log_prob in zip(reward_memory, log_prob_memo原创 2022-05-21 21:14:01 · 538 阅读 · 0 评论 -
Masked Autoencoders 关键信息解读
摘要的最后一句话:achieves the best accuracy (87.8%) among methods that use only ImageNet-1K data. Transfer performance in downstream tasks outperforms supervised pre-training and shows promising scaling behavior.可见masked autoencoders (MAE) 的应用方法,是预训练好的MAE的encode原创 2022-05-13 16:10:03 · 316 阅读 · 0 评论 -
Bootstrap Your Own Latent 划重点
引言BYOL uses two neural networks, referred to as online and target networks, that interact and learn from each other.Starting from an augmented view of an image, BYOL trains its online network to predict the target network’s representation of another augm原创 2021-12-07 17:52:56 · 434 阅读 · 0 评论 -
理解AlphaGo的蒙特卡洛树的作用
首先要先想象出两个 robot/agent 对弈 为一个树形的样子,具体,黑子下一步,会影响下一步白子的位置,如此下去,其实就是一棵树在延伸,想象出一个树形来记录对弈的全程,才能进一步理解蒙特卡洛树的缩小搜索空间的作用。...原创 2021-10-26 15:53:13 · 215 阅读 · 0 评论 -
《Reward is enough》 论文阅读
摘要本文提出假说,Reward is enough for AGI引言举了松鼠找松子吃的例子,确实,最终吃了松子reward就为1,没吃到松子reward就为0背景知识:强化学习把世界和生活的所有事reward化:讨论尝试用强化学习解释世界的一切robot结论如果Reward-is-enough这个猜想是正确的, 就能实现AGI。...原创 2021-09-26 19:48:26 · 362 阅读 · 0 评论 -
R-Drop 阅读笔记
《R-Drop: Regularized Dropout for Neural Networks》早有这个想法,没空做实验,竟然提升很大,说明我的idea还是水呀原创 2021-06-30 08:55:21 · 1038 阅读 · 1 评论 -
无监督语音识别 代码
https://github.com/pytorch/fairseq/tree/master/examples/wav2vec原创 2021-05-24 08:47:24 · 313 阅读 · 1 评论 -
解决 多标签分类 的数据label稀疏问题 / partial label 问题 / label缺失问题
input1 --> label1 — 32% datainput2 --> label2 — 32% datainput3 --> label3 — 32% datainput4 --> label1,label2 — 1% datainput5 --> label1,label3 — 1% datainput6 --> label2,label3 — 1% datainput7 --> label1,label2,label3 — 1% data解原创 2021-04-19 09:42:15 · 1300 阅读 · 0 评论 -
tensorflow tf.nn.conv1d 的真实含义(不是为了TextCNN而设计)
看源码https://github.com/tensorflow/tensorflow/blob/v2.4.1/tensorflow/python/ops/nn_ops.py是在卷积核的filter_height这位强行置为1,即一个宽为1的长条卷积核原创 2021-02-19 11:13:13 · 304 阅读 · 0 评论 -
tensorflow conv1d 代码实例 及 具体运算过程
import tensorflow as tfimport numpy as npbatch_size = 2sequence_len = 5hidden_size = 2kernel_len = 2in_channel = hidden_sizeout_channel = hidden_sizea1 = np.array(np.arange(1, 1 + sequence_len * hidden_size).reshape([sequence_len, hidden_size]), d原创 2021-02-18 18:58:48 · 876 阅读 · 0 评论 -
tensor transpose之后的含义探究
以卷积核为例import tensorflow as tfimport numpy as npbatch_size = 2sequence_len = 5hidden_size = 2kernel_len = 2in_channel = hidden_sizeout_channel = hidden_sizea1 = np.array(np.arange(1, 1 + sequence_len * hidden_size).reshape([sequence_len, hidden_si原创 2021-02-18 18:54:36 · 241 阅读 · 0 评论 -
ICLR 2020 ENERGY BASED MODEL 摘要速览
YOUR CLASSIFIER IS SECRETLY AN ENERGY BASEDMODEL AND YOU SHOULD TREAT IT LIKE ONEhttps://openreview.net/group?id=ICLR.cc/2020/Conference#accept-talk引言discriminative分类器表示为 p(y|x),可以基于能量型模型 把它重新推导成...原创 2020-04-09 10:38:24 · 596 阅读 · 0 评论 -
NS-CL 摘要速览
https://openreview.net/group?id=ICLR.cc/2019/ConferenceTHE NEURO-SYMBOLIC CONCEPT LEARNER:INTERPRETING SCENES, WORDS, AND SENTENCESFROM NATURAL SUPERVISION我们提出Neuro-Symbolic Concept Learner (NS-CL...原创 2020-03-15 20:34:42 · 547 阅读 · 0 评论 -
AutoML-Zero 摘要速览
https://github.com/google-research/google-research/tree/master/automl_zerohttps://arxiv.org/abs/2003.03384AutoML-Zero aims to automatically discover computer programs that can solve machine learning...原创 2020-03-11 15:07:57 · 1230 阅读 · 0 评论