
论文笔记
文章平均质量分 89
颜妮儿
学不完,根本学不完
展开
-
论文课后总结
我之前也安装过CTex,发现CTex的确方便,它已经把上述的工具都集成好了,不用我们挨个去安装、配置,但是安装之前一定要找一个教程照着安装,并提前备份好自己电脑上的环境变量,因为安装时,会修改电脑的环境变量,CTex的程序员在写修改环境变量的时候应该把“+=”写成了“=”,会导致安装好CTex后,电脑上的环境变量只剩一个新的,这是血和泪的教训。8:像自己这种不善于表达的,更需要先用中文把意思阐述清楚,“好的中文=好的英文”,如果感觉写出来的英语不对,那就在翻译软件上 中译英后再英译中,多倒腾几遍。原创 2022-11-08 20:00:48 · 613 阅读 · 4 评论 -
论文笔记——多标签学习:GLOCAL
期望具有正相关性的标签所对应的模型输出值越相近,具有负相关性的标签所对应的模型输出值差异越大。考虑到标签的相关性在不同的环境下有不同的结果,所以将训练样本又划分成多个局部样本集(哈哈,找到了一个能横向切割的方法),并使用同样的方式获得局部下的目标表达式。结合了标签矩阵的对称性和拉普拉斯矩阵的特点,将复杂的差值求和换成简单的迹的求和。我们期望存在正相关的标签在同一个样本上的输出值越相似,负相关的标签的预测值差异越大。由于标签的相关性在不同的环境中的表现可能不同,所以将训练样本划分成。所有样例的测试结果用。原创 2022-09-06 19:05:33 · 535 阅读 · 0 评论 -
论文笔记:多标签学习——ACkEL算法
通俗理解:在所有模型中,其中3个模型的训练样本都包含了猫这个标签,当我们预测一个样本的时候,其中有两个模型都预测该样本有猫,那么咱们就认为该样本有猫;相反,如果只有1个模型预测出有猫,其它两个模型都没预测出,那么我们就认为这个预测出有猫的模型出错了,选择相信另外两个模型的结果。随机采样的方式并不能保证有效性;划分标签后,根据各个子集标签的分布,需要在训练集中找到与该子集中的标签相关的样本,其中相关的标签用。EL:是将“大”的多标签问题化成“小”的多标签问题,在“小”的多标签问题中采用LP的方式解决问题;..原创 2022-08-16 20:01:25 · 679 阅读 · 0 评论 -
论文笔记:多标签学习——BP-MLL算法
符号系统学习过程将训练数据输入神经网络,神经网络通过损失函数进行训练得到参数,输出的数据是神经网络经过计算之后预测每个标签在该输入数据中出现的可能性,最后通过与设置的阈值进行比较,得出结果。如下图是作者给出的含有一层隐藏层的BP-MLL结构:其中,ai(i∈[1,d])a_i(i\in[1,d])ai(i∈[1,d])是输入的数据;a0,b0a_0,b_0a0,b0为偏置数据,初始值均为1,设置偏置可以提高激活函数的灵活性(控制其左右移动),以提高模型的拟合性;V,W\mathnormal {原创 2022-06-29 11:57:17 · 1304 阅读 · 0 评论 -
论文笔记:多标签学习——LIFT算法
原文见 Zhang, M.-L., & Wu, L. (2015). LIFT: Multi-label learning with label-specific features. IEEE Transactions on Pattern Analysis and Machine Intelligence, 37, 107–120.在线地址特点把多标签问题转换成了多个二分类问题。关键步骤符号系统主要过程:Step1: 将数据集分为标签含有lk(k∈[0,q])l_k(k\in[0,q])lk(k∈原创 2022-06-26 22:16:01 · 1486 阅读 · 1 评论