- 博客(37)
- 收藏
- 关注
原创 windows下MSYS报错:(unable to lock database)的解决方法
但是,按照网上的教程,去删除db.lck文件,却发现/var/lib/pacman/db.lck文件是不存在的。在安装MSYS2时,使用pascman -Syu会报无法锁定数据库的问题。解决方法:使用管理员权限运行MSYS2.exe。
2024-04-07 16:11:43
1637
1
原创 Attention-Challenging Multiple Instance Learning for Whole Slide Image(ACMIL)
Attention-Challenging Multiple Instance Learning for Whole Slide Image 针对领域:MIL的过拟合现有问题:当前的MIL方法只关注预测实例的子集,阻碍了有效的模型泛化ACMIL:迫使注意力机制捕捉更具挑战性的预测实例。算法构成:多分支注意力(MBA)来捕获更丰富的预测实例随机TopK实例掩蔽(STKIM)来抑制简单的预测实例。实验:三个WSI数据集的评估优于最先进的方法。
2023-12-19 11:18:51
1438
原创 Multiple instance learning with bag dissimilarities
以往方法:专门的MIL方法通过对袋标签和实例标签之间的关系做出额外的假设来学习。(实例级方法)存在问题:可能适合特定的数据集,但不能推广到MIL问题的整个范围。当前解决方法:将假设的重点从标签转移到袋子的整体(非)相似性上,直接从袋子中学习。(包级方法)本文解决方法:建议用训练集中每个包与其他包的不同之处的向量来表示每个包,并将这些不同之处视为特征表示。贡献:展示了几种定义包之间不相似性的替代方法,并讨论了哪些定义更适合特定的MIL问题。
2023-07-11 18:29:25
199
原创 Multi-Instance Learning by Treating Instances As Non-I.I.D. Samples
存在问题:以往的多实例学习研究通常将袋中的实例视为独立同分布的。然而,在实际任务中,包中的实例很少是独立的。忽略了实例之间的关系传递重要的结构信息这一事实。解决思路:利用实例之间关系,如果在Non-I.I.D.中处理实例,则可以期望获得更好的性能。解决方法:第一种:我们显式地将每个袋映射到一个无向图上,并设计一个图核来区分正负袋。第二种:通过推导亲和矩阵来隐式构造图,并提出一个考虑团信息的高效图核。
2023-07-09 17:05:06
270
原创 Attention-based Deep Multiple Instance Learning
多示例学习(MIL)定义为学习包标签的伯努利分布,其中包标签的概率由神经网络完全参数化。提出了一种基于NN的置换不变聚合算子,对应注意力机制。该算子提供了每个示例对包标签的贡献的深入了解实验结果,在banchmark数据集上取得与最佳MIL方法相当的性能,在不牺牲可解释性的情况下,在MNIST数据集和两个真实组织病理学数据集上优于其他方法。
2023-06-05 17:53:15
1175
1
原创 Revisiting multiple instance neural networks (mi-Net,MI-Net,)
Revisiting multiple instance neural networks (mi-Net,MI-Net,)
2023-04-24 17:42:17
533
原创 多示例神经网络:Neural Networks for Multi-Instance Learning (BP-MIP,周志华,2002)
多示例神经网络BP-MIP
2023-04-17 20:48:44
402
原创 【论文阅读】An empirical study on image bag generators for multi-instance learning
多示例图像包生成器
2022-10-31 21:32:56
278
2
原创 【论文阅读】Towards Certified Robustness of Distance Metric Learning
距离度量学习的鲁棒性证明
2022-10-26 14:57:50
264
2
原创 【论文阅读】Multi-instance clustering with applications to multi-instance prediction
多实例聚类在多实例预测中的应用
2022-09-27 17:34:25
649
1
原创 【论文阅读】Multiple instance classification: Review, taxonomy
【论文阅读】Multiple instance classification: Review, taxonomy
2022-09-13 17:33:19
377
原创 【论文阅读】Multi-instance Ensemble Learning with Discriminative Bags
多实例学习(MIL)比传统的监督学习更具一般性和挑战性,因为标签是在包级给出的。常用的特征映射方法是将每个包转化为新特征空间中的一个实例。但是,它们大多很难维持包的可分辨性,MIL模型不支持自我强化。在本文中,我们提出了一种基于判别包的多实例集成学习(ELDB)算法。包选择技术根据两部分得到区别性包集(dBagSet)。首先,考虑数据的空间分布和标签分布,通过判别分析优化包选择过程,得到基本的dBagSet。其次,利用状态和动作的转移策略,通过自强化得到一个可区分性较好的dBagSet;...
2022-08-09 17:32:10
375
原创 BP神经网络
在生物神经网络中,最主要的结构便是神经元,如上图所示,便是生物神经元的结构模型,树突感知其他神经元传递的信息,通过轴突向后传播。神经元与神经元之间传播时通过一个突触的结构,通过神经递质改变下一个神经元的电位,当电位超过一定阈值,则信息将通过电位在下一个神经元上进行传递。故我们可将神经元的这种结构特性进行提取,构建神经元模型。M-P神经元模型是1943年由[McCulloch and Pitts,1943]将生物神经元抽象出来的神经元模型,一直沿用至今。在这个模型中,神经元接收n个其他神...
2022-08-02 17:58:33
356
原创 [论文阅读] Two-stage instance selection and adaptive bag mapping algorithm for multi-instance learning
时间:2022/7/1多示例学习习的两阶段实例选择和自适应包映射算法(the two-stage instance selection and adaptive bag mapping algorithm for multi-instance learning, TAMI)多示例学习(MIL)研究对象的内部结构比单示例学习更加复杂。已有的 MIL 方法大都基于原始 空间中的实例进行包映射。这些方法通常忽略了包的内部结构信息,难以保证所选实例与包在新特征空 间中的关联性。提出一种多示例学习的两阶段实例选择和
2022-07-01 19:06:10
391
原创 SMDP代码实现
时间:2022/6/29主要提供数据集的读取,交叉验证时数据集的划分等2.Density Peak类提供密度峰值聚类相关功能。3.SMDP类SMDP核心代码4.运行测试使用musk1+数据集进行测试
2022-06-29 18:15:27
726
原创 主动学习ALEC——python实现
在ALEC中,DP算法的作用主要是为了选取代表性最高的样本作为分块查询的样本,根据DP算法的思想,代表性最高的样本在局部空间中最能代表本区域。查询该样本可以提高查询分类的速度和准确度。同时在分裂块时按照密度封装聚类的思想可用其master进行分块。将DP算法封装成模块来调用。算法运行测试使用iris数据集进行测试...
2022-06-29 16:25:29
430
原创 密度峰值聚类(Density Peak Cluster,DPC)——Python实现
关于密度峰值聚类的算法思想,大师兄的博客中已经基本介绍了机器学习之Density Peaks_因吉的博客-优快云博客_density peaks。在这里我就简述一下。对于样本空间而言,可以通过一定的距离度量来计算样本之间的距离。以当前样本为中心使用一个半径便可以计算样本周围的其他样本数量,便可衡量样本周围的密度。密度聚类算法便基于此。统计所有样本的密度,便可得到一个密度峰值图。将数据样本按照某一方向映射到x轴上,y轴为以其为中心,以r为半径计算的密度。由上图可以看到,样本1和样本......
2022-06-29 15:07:35
6057
9
原创 矩阵分解——python实现
具体的算法在java实现的那一篇博客中由于矩阵分解的算法代码实现比较简单,所以很容易使用python进行实现。具体代码如下运行结果可以看到python的运行时间是69秒而java的运行时间远远小于python,只有686毫秒。由此可见,python虽然组装时间快,但是运行速度确实更慢。...
2022-06-21 21:53:23
1466
原创 矩阵分解(java)
对于任意实矩阵A∈Rm∗nA\in R^{m*n}A∈Rm∗n都可以分解为A=U∑VT(1)A=U\sum V^T\tag{1}A=U∑VT(1)其中,U∈Rm∗mU\in R^{m*m}U∈Rm∗m是满足UTU=IU^TU=IUTU=I的m阶酋矩阵;V∈Rn∗nV\in R^{n*n}V∈Rn∗n是满足VTV=IV^TV=IVTV=I的n阶酋矩阵;∑∈Rm∗n\sum\in R^{m*n}∑∈Rm∗n是mxn的的矩阵,其中(∑)ii=σi(\sum)_{ii}=\sigma_...
2022-06-21 19:20:32
820
1
原创 集成学习之Adaboost
时间:2022/6/13集成学习是一种提升分类器的性能的方法。通过整合多个 基学习器(Base learner来完成学习任务。集成学习被认为是一种 元算法强学习器(Strong learner):相对于弱学习器而言,强学习器指的是可以预测相当精准的学习器。弱学习器(Weak learner):相对于强学习器而言,这类学习器的效果通常只比随机结果要好一点。基学习器(Base learner):是集成学习中,每个单独的学习器即为基学习器。通常采用弱学习器,但不一定必须是弱学习器。基学习算法(Base Lear
2022-06-14 18:09:41
187
原创 基于Density Peak的主动学习
时间:2022/6/8关于主动学习,这里有一篇闵老师的文章主动学习: 从三支决策到代价敏感_闵帆的博客-优快云博客如上图,便是经典的主动学习的流程图。主动学习的主要思想是:通过机器学习,将具有代表性的样本学习出来,再由人工(专家/大师)对这些样本进行标记,再让机器学习模型进行学习。逐步迭代到理想的情况。在闵老师的文章中介绍了,三种主动学习的方式。一是基于密度的主动学习;二是基于代价敏感度的主动学习,三是带标签噪声的主动学习。这里我主要是学习了基于密度的主动学习。关于DP算法,我在另一篇文章中有相关描述,
2022-06-08 14:28:27
477
原创 [论文阅读]:Semi-supervised Multi-instance Learning with Density Peaks Clustering
时间:2022/5/31Semi-supervised Multi-instance Learning with Density Peaks Clustering密度峰值聚类的半监督多示例学习文章提出了密度峰值聚类的半监督多示例学习(Semi-supervised Multi-instance Learning with Density Peaks Clustering,SMDP)算法,包含三个步骤:(1)结合高斯核和五种距离度量,使用基于密度峰值聚类的方法寻找代表包;(2)基于包之间的距离将每一个包转换为
2022-06-01 16:04:11
374
原创 分类器模型评估与选择
分类器模型评估与选择时间:2022/5/25文章目录分类器模型评估与选择1.评估分类器性能的度量1.1.相关知识1.2. 评估度量1.2.1.混淆矩阵(confusion matrix)1.2.2.准确率(Accuracy)1.2.3.灵敏性(Sensitivity)和特效性(Specificity)1.2.4.精度(precision)和召回率(recall)1.2.5.F度量与FβF_{\beta}Fβ度量1.2.6.其他方面度量2.保持方法和随机二次抽样3.交叉检验3.1.k-折交叉验证(k-f
2022-05-24 21:32:34
561
原创 Kmeans算法
Kmeans算法时间:2022/5/11文章目录Kmeans算法0.数据集分析1.算法思想2.算法实现过程3.算法特点4.算法实现完整代码0.数据集分析测试使用的数据集仍然为经典的鸢尾花数据集iris.有四个属性,分别为花萼长度(sepallength)、花萼宽度(sepalwidth)、花瓣长度(petallength)、花瓣宽度(petalwidth)。决策属性为种类(setosa、versicolor、virginica)。[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传
2022-05-11 16:49:10
315
原创 朴素贝叶斯算法(Naive Bayes)
朴素贝叶斯算法(Naive Bayes)0.数据集分析数值属性数据集依旧是采用鸢尾花iris数据集这里就不过多介绍,标称属性数据集采用weather.arff数据集。这个数据集如下,有五个属性组成,决策属性为最后一个是否出去玩。这个数据集全部由标称属性组成,且数据集大小较小,非常适合入门学习。@relation weather.symbolic@attribute outlook {sunny, overcast, rainy}@attribute temperature {hot, mild,
2022-05-11 16:46:44
872
原创 基于M-distance的KNN算法
基于M-distance的KNN算法时间:2022/5/4文章目录基于M-distance的KNN算法0.数据集分析1.M-distance2.算法流程3.代码部分4.运行结果学习总结0.数据集分析采用的是电影评分数据集movielens-943u1682m.txt,数据由三部分构成(用户ID、电影ID、评分)。数据采用的是压缩存储的方式。1.M-distance这是闵老师为我们介绍的一个之前的师姐在做推荐系统时发现的距离度量论文地址。结合具体的数据movielens-943u1682m.tx
2022-05-11 13:24:23
533
原创 KNN(最邻近算法)
KNN(最邻近算法)时间:2022/5/4目录KNN(最邻近算法)0.数据集分析1.算法思想2.算法流程:3.代码部分4.运行结果5.优化思考5.优化思考0.数据集分析测试使用的数据集为经典的鸢尾花数据集iris.有四个属性,分别为花萼长度(sepallength)、花萼宽度(sepalwidth)、花瓣长度(petallength)、花瓣宽度(petalwidth)。决策属性为种类(setosa、versicolor、virginica)。1.算法思想闵老师在上课时说过,机器学习的本质就是“
2022-05-11 13:14:52
1208
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人