
机器学习
文章平均质量分 75
hj_cheng29
这个作者很懒,什么都没留下…
展开
-
Towards K-means-friendly Spaces: Simultaneous Deep Learning and Clustering解析
Towards K-means-friendly Spaces: Simultaneous Deep Learning and Clustering解析因为最近会经常用到聚类,并且对于深度聚类的了解较少,所以准备从这篇比较经典的开始,论文地址:论文地址论文代码:代码背景大多数的学习任务都需要用到降维和聚类,不过一般来说都是分开进行降维和聚类的,但是最近的研究表明同时优化两种任务,这两者可以相互提升性能。K-means一般只适合聚类K-means友好型数据,即样本在聚类中心周围均匀的分布,所以我们原创 2021-03-31 22:04:22 · 2013 阅读 · 2 评论 -
How Neural Networks Extrapolate:From Feedforward to Graph Neural Networks ICLR2021最高分论文解析
How Neural Networks Extrapolate:From Feedforward to Graph Neural Networks ICLR2021最高分论文解析本篇论文由MIT的研究生keyulu Xu 继2020ICLR高分论文《What can neural networks reason about?》之后的又一力作,由于此篇论文大量的用到了上述论文的概念知识,所以这里贴出上篇论文的解析What can neural networks reason about?解析评审人所给原创 2021-03-19 11:34:39 · 1285 阅读 · 1 评论 -
What can neural networks reason about?论文解析
What can neural networks reason about?ICLR2020高分论文解析论文地址:论文地址最近在看这篇论文作者MIT研究生keyulu Xu的2021ICLR最高分论文时,发现很多地方与此片论文有联系,所以先回头来看看他2020年的论文。论文干了什么此篇论文正式定义此算法比对,并得出样本复杂度界限,并且该界限随着更好的比对而降低。并且作者展示GNNs和DP(动态规划)问题的对比,发现GNNs很有希望取解决DP等问题,在几个推理任务上,(Summary statisti原创 2021-03-16 18:15:24 · 1043 阅读 · 1 评论 -
torch 删除tensor全0列
torch 删除tensor全0列在pythorch中并没有直接的包可以删除元素,所以我们需要自己写def del_tensor_0_cloumn(Cs): idx = torch.where(torch.all(Cs[..., :] == 0, axis=0))[0] all = torch.arange(Cs.shape[1]) for i in range(len(idx)): all = all[torch.arange(all.size(0))!=idx原创 2021-01-23 11:21:41 · 4370 阅读 · 0 评论 -
python 二维list根据内容长度排序
import numpy as npC = []C.append([1,2])C.append([1,2,3,4])C.append([1,2])C.append([1,5,3,6,9])m = [] n = []temp = []res = []for x in C: m.append(len(x)) n.append(len(x))m.sort(reverse=True)index = 0for i in m: temp.append(C[n.inde原创 2020-09-10 15:40:00 · 847 阅读 · 1 评论 -
多项式拟合(不调包,线性回归)
做一个三阶多项式拟合| python代码import numpy as npimport matplotlib.pyplot as plttemp = np.loadtxt("sin_data.csv", delimiter=',')# print(temp)X = temp[:, 0].reshape(1, -1) #x,y都转成n,1的矩阵Y = temp[:, 1].reshape(1, -1)n_x = 100print(n_x)W1 = np.zeros(shape=原创 2020-06-17 16:49:14 · 404 阅读 · 0 评论