- 博客(28)
- 资源 (2)
- 收藏
- 关注
原创 服务器下载Google网盘大文件
参考如下,使用gdrive库。docs里面有如何注册使用google api。注册后先在本地add user,export后导出到服务器端。
2023-11-14 15:36:55
256
1
原创 GAN生成对抗网络基础知识
GAN2014年提出GAN的概念,里面有很多复杂的公式推导,简单分析一下。在GAN里面训练两个MLP,一个是生成器G,一个是判别器D。整个网络输入是一个随机噪声,通过真实值来进行监督,让生成器把这段随机噪声变成和真实值相似的分布。其中,D用来对生成器的质量进行评估。形象来说,生成器就像印假钞的团队,判别器像警官。首先训练警官,团队想要把白纸变成钞票,钞票上有花纹水印数字等等。第一次团队把白纸给警官看,警官发现显然和真钞不一样,于是团队回去印刷数字,给警官看,警官发现有数字,但是没有花纹,于是警官知道需要
2022-04-24 21:39:52
1966
1
原创 Latex踩坑
Latex坑目录后突然多出来一页空白页在该页生成之前加这句话即可,例如在目录页之后的空白页,就在目录生成之前加。\let\cleardoublepage\clearpage\tableofcontents参考文献item之间的行间距强制设定参考文献间的距离,或者直接用bibtex\begin{thebibliography}{1} \addtolength{\itemsep}{-1.5 em} % 缩小参考文献间的垂直间距\setlength{\itemsep}{-5pt} % 设置
2022-04-24 21:15:55
1184
原创 CasMVSNet 论文学习:Cascade Cost Volume for High-Resolution Multi-View Stereo and Stereo Matching
论文解决的问题本文提出了一种级联的思想,用来解决MVSNet和stereo matching中提出的3D代价体消耗过大的问题。构建三维代价体的目的是用来正则化并回归深度,并且可以适应任意数量的输入。但是随着代价体size增加,时间空间消耗是立方级增长的。因此提出了级联代价提的方法来进行corse-fine的调整。该方法在DTU准确度提升了35%,GPU和运行时间降了50%。主要的方法是:使用FPN提取三个不同维度的特征图每个特征图算作一个级联,动态降低深度假设范围和深度假设间隔,减小代价体大小最终
2022-04-24 21:05:20
1218
原创 MVSNet:论文学习
核心思路本文构建了一个基于深度学习的端到端的多视角深度估计网络,用来实现MVS在图像上提取深度图像特征,并且在基于相机锥体上进构建3D cost volume ,通过可微的单映变换将reference camera的参数编码到网络中进行训练使用3D的Unet进行正则化,回归得到深度概率分布,通过在深度方向上计算深度期望来初步生成深度图,再用原来的reference image进行jump connection改进深度over smooth该网络结构可以允许任意的N-view输入,使用基于方差的co
2022-03-07 22:10:16
3610
原创 Torch.gather的理解
Torch.gather方法通常运用在分类问题中,最后分类结果为onehot格式时,对于真实标签的提取。官方文档的公式理解有点难度。以下简单做一下思考。代码引用自 Pytorch中的torch.gather函数的含义还是b = torch.Tensor([[1,2,3], [4,5,6]])print bindex_1 = torch.LongTensor([[0,1], [2,0]])index_2 = torch.LongTensor([[0,1,1],
2021-11-12 17:58:34
1637
1
原创 MVS_Tutorial-1
目录摘要摘要MVS算法可以仅仅通过照片来重建出高细节的3D模型。MVS是给定一组图像,估计最有可能的3D形状,建立在已知物体的材料、视点以及光照条件的前提下。如果前提条件未知的话,就会出现最优解不唯一的情况,因为不同种的光照等组合会出现相同的结果。ill-posed:指最优解不唯一的情况适定问题(Well-posed problem)是指满足下列三个要求的问题:1)解是存在的;2)解是惟一的;3)解能根据初始条件连续变化,不会发生跳变,即解必须稳定。MVS的输入:一组图像和它们对应的相
2021-10-16 10:34:47
919
原创 模版题ac
acwing787第k 个数787归并排序788逆序对的数量795前缀和796子矩阵的和789数的范围790数的三次方根787第k 个数快速排序#include<bits/stdc++.h>using namespace std;void quick_sort(int n[], int l, int r){ if(l>=r) return ; int i=l-1,j=r+1,x=n[l+r>>1]; while(i<j){
2021-06-26 17:50:19
614
2
原创 算法阅读笔记8
目录动态规划斐波那契动态规划明确状态,明确选择,明确dp函数/数组定义,明确base case状态:会变的,dp数组的索引选择:求最值定义:状态转移方程#初始化base casedp[0][0][...]=base#进行状态转移for 1 in 1的所有取值: for 2 in 2的所有取值: for ... dp[1][2][...]=求最值(选择1,选择2,...)斐波那契用常规的方法会达到O(2^n)级别。炸了,因此需要引入动态规划的思想,备忘录的递归。常规的递归可
2021-06-26 17:50:02
102
原创 leetcode乱
目录leetcode783 二叉搜索树最小距离leetcode783 二叉搜索树最小距离暴力无脑解法,中序遍历二叉树得到递增数组,比较相邻两个差值与最小值,更新最小值即可class Solution {public: vector<int> num; int min=1e5; void helper(TreeNode* root){ if(root==NULL) return ; helper(root->left);
2021-04-22 18:00:42
114
原创 算法阅读笔记7
目录3.24图并查集并查集可以解决连通分量个数图邻接链表是一种链式存储结构,其为图的每个顶点建立一个单链表,第 i 个单链表 中保存与结点 Vi 相邻的所有结点(无向图)或所有以结点 Vi 为弧尾的弧指向的结点(有 向图)及其相关信息。总之就是i指向j,那么在i的链表下就有j的值。维护一个vector<edge> Edge[N] 二维的数组,代表 每个节点的后面跟的数组,里面存放相当于链表的东西并查集这种数据结构用来表示集合信息,用以实现如确定某个集合含有哪些元素、判断某 两个元素是否
2021-04-13 18:20:13
125
原创 算法阅读笔记6
目录03.20BSTII二叉树转累加树判断二叉搜索树的合法性。在BST中寻找一个数插入一个数BST删除一个数几个题。验证BSTBSTII继续上上次的二叉树。上次看到二叉搜索树,看了一道BST转换累加树的题。二叉树转累加树每个节点的值要更新成为比他大的节点的值的加和。相当于计算当前节点右子树的和,首先按照特性中序遍历BST就能得到升序排序,那反过来先遍历右子树不就得到降序了吗。类似的,先遍历右子树,然后累加和,加起来之后赋值给根节点就结束了。代码如下就几行。class Solution {pub
2021-03-23 15:21:00
356
原创 算法阅读笔记5
目录%运算%运算在有些题里面a%b往往让人算不明白,a%b语句为例,若a为正数,则该表达式结果必为非负数 (可能为 0); 若a为负数,则表达式结果必为非正数 (可能为 0)。 而表达式结果与 b 的符号没有直接关系,即 a% -b 与 a%b 的结果相同 。我们利用求模运算来计算数组下标,而负数组下标是不能被我们所使用的。 那么我们必须保证表达式求得的余数在数论定义的区间范围内。结合例 2.4中的方法,相信很多读者心中都有答案,只需在该负的余数上加上除数再对除数求 一 次余即可 。...
2021-03-20 20:07:58
268
原创 算法阅读笔记4
目录二叉树II最大二叉树二叉树II最大二叉树这个题首先要根据给定的数组找最大值然后递归。这里递归的时候注意一个事情递归一定要有结果,最后是一定要返回东西的,否则没有终止条件递归会一直进行。通过遍历数组直接刷到最大值,然后以这个值为根节点(最大),左边的数组部分当作左节点,右边的当作右节点,递归上述操作直到最后左右两边的数组为空,代表数组中已经没有东西了,返回NULL。 这个思路运行时和内存都较大。class Solution {public: TreeNode* constructMaxi
2021-03-14 19:06:07
142
原创 算法阅读笔记3
栈计算表达式比较难,尤其是带括号的,总体上先给一个判断运算符优先级规则的函数,然后定义数据栈和运算符栈,从左到右扫整个字符串,碰到左括号、运算符压栈,数字压数字栈,如果有左括号,则开始找右括号,找到右括号之后开始出栈,出站规则和正常一样,但是直到匹配到左括号出栈为止;正常情况碰到运算优先级更高的运算符就弹出两个数字和该运算符运算,得到结果压入数字栈,循环直至栈中只剩一个数字。计算表达式这个题的各种精度问题太恶心,一定用double来搞labuladong给的思路#include<algori
2021-03-09 20:04:46
144
原创 算法阅读笔记2
首先是补的上节排序的一道题,有小坑。只需要注意他的输入是连续的,即一个测试样例有若干个实例,发现这个问题很简单。例题:成绩排序#include<iostream>#include<algorithm>#include<string.h>#include<vector>using namespace std;struct students{ string name; int score; int order;};stud
2021-03-08 21:23:35
131
原创 算法阅读笔记1
第二章这一章还是基础入门1 排序while(scanf("%d",&n)!=EOF)这句话代表的意思是不知道最终会有多少数据输入,因此这句话可以自动检测输入。sort函数里面的参数分别是排序内存的起始地址和终止地址,不要写错。默认是升序排列,如果需要降序则重写一个排序函数。bool cmp(int a,int b){ return a>b;}这个排序函数支持的类型有很多,可以排列结构体数组等其他数据结构,而且如果待排的值相同需要比较另外的值,则可以写if(a==b)r
2021-03-07 19:12:39
126
转载 【转载】岭回归(L2)、lasso回归(L1)、ElasticNet讲解
https://www.cnblogs.com/mantch/p/10242077.html
2021-01-22 14:41:53
174
转载 invalid index of a 0-dim tensor, Use tensor.item() to convert a 0-dim tensor to a number 报错
转载:https://blog.youkuaiyun.com/weixin_41797117/article/details/80237179将pytorch更新到0.4.0最新版后对0.3.1版本代码会有如下警告,它在提醒用户下个版本这将成为一个错误修改方法如下:#原语句:train_loss+=loss.data[0]#修改后:train_loss+=loss.item()#bingo...
2021-01-19 19:02:15
109
原创 GCN 学习 Simple and Deep Graph Convolutional Networks
文章目录一、Introduction二、ResNet的引入什么是Resnet本文方案GCNII 模型初始残差连接恒等映射迭代收缩阈值参考一、Introduction本次阅读文章为升级版GCN,使用两种技术即初始残差和恒等映射来缓解过度平滑即梯度爆炸或缺失的问题。这种深度GCNII模型在半监督和完全监督任务上的性能优于最新方法。虽然GCN在后续的升级中取得了比较优越的性能,但是由于过度平滑的问题,大多数目前的GCN模型都是浅层的。最近的模型,例如GCN和GAT,在两层模型取得了非常好的性能,但这样的浅
2021-01-17 23:56:13
1745
原创 GCN学习 GRAPH ATTENTION NETWORKS
最近需要用的GAT的中心节点周围节点分配权重的思想,不得不提到注意力Attention机制的重要性,因此阅读GAT。文章目录前言一、Introduction二、GAT Architecture输入和输出特征提取和注意力机制self-attention实际应用总结参考前言GCN模型可以分为频谱域和空间域两大类。应用较多的还是在频谱类,使用拉普拉斯矩阵借助图谱进行卷积操作。但是他也存在一些缺陷,比如依赖拉普拉斯矩阵,不能直接用于有向图,模型训练依赖整个图结构,且图结构必须保持静态,不能应用于动态图,
2021-01-17 02:06:05
979
原创 GCN学习 DROPEDGE: TOWARDS DEEP GRAPH CONVOLUTIONAL NETWORKS ON NODE CLASSIFICATION
阅读DropEdge,加深GCN,解决图神经网络无法加深的问题。文章目录一、Introduction图卷积网络是利用消息传递或者说聚合节点邻居的信以及自身的信息来获取节点的高阶特征。但是**过度拟合**和**过度平滑**是GCN进行节点分类的主要障碍。二、使用步骤1.引入库2.读入数据总结一、Introduction图卷积网络是利用消息传递或者说聚合节点邻居的信以及自身的信息来获取节点的高阶特征。但是过度拟合和过度平滑是GCN进行节点分类的主要障碍。二、使用步骤1.引入库代码如下(示例):
2021-01-16 23:51:48
1812
2
原创 改进版GCN 学习Simplifying Graph Convolutional Networks
本文是SGC(简化版GCN),主要通过连续去除非线性和在连续层之间的折叠权矩阵来减少GCN的复杂性。而且这些简化不会对准确性产生负面影响。在Reddit上比FastGCN产生两个数量级的加速。文章目录一、Introduction一、pandas是什么?一、Introduction简单来说,本文就是把非线性的GCN转换成一个简单的线性模型SGC,反复消除GCN层之间的非线性并将得到的函数折叠成一个线性变换来减少GCNs额外的复杂度。其实对于要求较低的应用来说,这是不必要的。一、pandas是什么?
2021-01-15 02:36:26
2690
2
原创 GCN学习:Attributed Graph Clustering via Adaptive Graph Convolution
阅读论文AGC,利用高阶结构信息来提升聚类的效果。本文从图信号处理角度来理解GNN,增强聚类效果。目标还是将节点划分成m个聚类。文章目录一、Introduction原理步骤二、算法提到了一些预备条件一阶图卷积一、Introduction近年来的几种图卷积的聚类方法在一些真实的属性网络上取得了良好的聚类性能。然而现有方法都是低阶的,只考虑每个节点的邻居,或者两个三个跳之外的节点,固定的图卷积模型忽略了真实的图的多样性,只考虑每个节点几跳之内的邻居,没有利用节点关系,忽略了深度。本文从两方面提出了一种
2021-01-14 17:27:09
1880
原创 GCN阅读 GeniePath: Graph Neural Networks with Adaptive Receptive Paths
本文是关于一种自适应感知路径的GNN GeniePath论文的笔记文章目录前言一、什么是感受野二、使用步骤1.引入库2.读入数据总结前言该神经网络适用于可扩展的,能够学习自适应感受路径的图神经网络框架,他定义在具有排列不变性的图数据上。排列不变性:指的是输入的顺序改变不会影响输出的值。(在图上体现的排列不变形可能就是节点的输入顺序。)一、什么是感受野在卷积神经网络中,感受野的定义是卷积神经网络每一层输出的**特征图(feature map)**上的像素点在原始图像上映射的区域大小。二
2021-01-14 00:59:46
1068
原创 GCN阅读 SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS
本文是对第三代GCN的论文的阅读笔记文章目录一、摘要三代GCN发展原文摘要二、IntroductionContribution三、Graph中的快速近似卷积引入切比雪夫多项式四、线性模型K=1:两个参数的模型进一步简化总结一、摘要在看这篇第三代GCN之前已经看过了前两篇初代GCN,可以看到传统GCN是一代一代发展而来的。GCN应用的思想也是由CNN而来的。在CNN中,卷积被定义成不同位置的特征检测器,卷积核是具备局部平移不变性的特征的,通过计算中心像素点以及相邻像素点的加权和来构成feature
2021-01-13 17:30:03
640
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人