自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(99)
  • 收藏
  • 关注

原创 HQDec:基于高质量解码器的自监督单目深度估计-2024-TCSVT(中科院一区TOP,2024 IF=8.4)

42]利用3D填充块来保留重要的空间细节,但忽略了多层信息交换的好处。第三,为了获得视差值,目前大多数方法[25]-[28],[30],[31],[38],[40],[42],[55],[56]直接使用局部二维卷积,然后使用sigmoid函数将解码器输出的特征映射回归到视差值;最后,为了解决自监督单眼方法[25][28],[30],[40],[57]中固有的尺度模糊问题,我们提出了一种自适应尺度对齐策略,通过考虑中值和平均值信息,将获得的估计结果缩放到用光探测和测距(LiDAR)测量的真实情况。

2023-10-10 20:18:36 9157 1

原创 CbwLoss:高效解决动态场景下以及弱纹理下单目深度估计问题(2023-TITS,中科院一区TOP,2023 IF=9.551)

为了解决这些问题,在本文中,我们分别利用流场之间的差异,以及仿射变换和视图合成产生的深度结构之间的差异来处理运动物体和遮挡。其次,我们通过测量具有更多语义和上下文信息的特征之间的差异来减轻无纹理区域对模型优化的影响,而不需要额外的网络。大量的实验和可视化分析证明了所提出方法的有效性,在相同的条件下,该方法优于现有的最先进的自监督方法,并且不引入额外的辅助信息。然后,我们根据一致性检查计算掩模,并使用这些掩模对光度损失进行加权,以减少相应区域的贡献,从而满足基于静态场景的图像重建的基本假设。

2023-09-10 23:29:44 9450 1

原创 windows系统下查看cpu的序列号

CPU序列号是独一无二的标识符,具有终身不变的特性。由于CPU外在的所有标记都可以人为改动,而序列号是内置于CPU内部的,因此只能通过软件读取。利用这个原理,CPU ID工具可以显示出CPU的确切信息,包括移动版本、主频、外频、二级缓存等关键信息,从而查出超频的CPU。此外,序列号还可以用于验证盒装CPU的真伪,确保购买的产品是原装的。以管理员身份运行 cmd。

2025-03-28 16:33:29 181

原创 RuntimeError: view size is not compatible with input tensor‘s size and stride (at least one dimensio

view操作要求tensor的内存连续存储,所以在view前面需要先使用contiguous()xx.view(-1) 改为 xx.contiguous().view(-1)

2025-03-15 19:56:18 201

原创 如何使用HF-Mirror 快速从hf-mirror.com下载数据

huggingface 工具链会获取HF_ENDPOINT环境变量来确定下载文件所用的网址,所以可以使用通过设置变量来解决。可以添加 --local-dir-use-symlinks False 参数禁用文件软链接,这样下载路径下所见即所得,详细解释请见上面提到的教程。hfd 是本站开发的 huggingface 专用下载工具,基于成熟工具 aria2,可以做到稳定高速下载不断线。huggingface-cli 是 Hugging Face 官方提供的命令行工具,自带完善的下载功能。方法三:使用 hfd。

2025-03-15 10:30:33 409

原创 CbwLoss Constrained Bidirectional Weighted Loss for Self-Supervised Learning of Depth-TITS-1区TOP

为了解决这些问题,在本文中,我们分别利用流场之间的差异,以及仿射变换和视图合成产生的深度结构之间的差异来处理运动物体和遮挡。其次,我们通过测量具有更多语义和上下文信息的特征之间的差异来减轻无纹理区域对模型优化的影响,而不需要额外的网络。大量的实验和可视化分析证明了所提出方法的有效性,在相同的条件下,该方法优于现有的最先进的自监督方法,并且不引入额外的辅助信息。然后,我们根据一致性检查计算掩模,并使用这些掩模对光度损失进行加权,以减少相应区域的贡献,从而满足基于静态场景的图像重建的基本假设。

2025-03-14 22:54:19 989

原创 HQDec: Self-Supervised Monocular Depth Estimation Based on a High--2024-TCSVT(中科院一区TOP,2024 IF=8.4)

42]利用3D填充块来保留重要的空间细节,但忽略了多层信息交换的好处。第三,为了获得视差值,目前大多数方法[25]-[28],[30],[31],[38],[40],[42],[55],[56]直接使用局部二维卷积,然后使用sigmoid函数将解码器输出的特征映射回归到视差值;最后,为了解决自监督单眼方法[25][28],[30],[40],[57]中固有的尺度模糊问题,我们提出了一种自适应尺度对齐策略,通过考虑中值和平均值信息,将获得的估计结果缩放到用光探测和测距(LiDAR)测量的真实情况。

2025-03-14 22:50:56 735

原创 AAAI2025 Accepted Papers(十一)

AAAI2025 Accepted Papers

2025-03-14 22:10:11 483

原创 AAAI2025 Accepted Papers(十)

AAAI2025 Accepted Papers

2025-03-14 22:07:57 453

原创 AAAI2025 Accepted Papers(九)

AAAI2025 Accepted Papers

2025-03-14 22:06:35 892

原创 AAAI2025 Accepted Papers(八)

AAAI2025 Accepted Papers

2025-03-14 22:00:45 530

原创 AAAI2025 Accepted Papers(七)

AAAI2025 accepted papers

2025-03-14 21:52:51 471

原创 AAAI2025 Accepted Papers(六)

AAAI2025 accepted papers

2025-03-14 21:49:26 565

原创 AAAI2025 Accepted Papers(五)

AAAI2025 accepted papers

2025-03-14 21:38:01 1296

原创 AAAI2025 Accepted Papers(四)

AAAI2025 accepted papers

2025-03-14 21:31:50 941

原创 AAAI2025 Accepted Papers(三)

AAAI2025 accepted papers

2025-03-14 21:17:44 999

原创 AAAI2025 Accepted Papers(二)

AAAI 2025 accepted papers

2025-03-14 21:09:57 621

原创 AAAI2025 Accepted Papers(一)

AAAI 2025 Accepted Papers

2025-03-14 20:35:13 568

原创 CVPR2025 Accepted Papers

bo zhou · Liulei Li · Yujia Wang · 刘华峰 Liu · Yazhou Yao · Wenguan Wang。Haijin Zeng · 湘铭 王 · Yongyong Chen · Jingyong Su · Jie Liu。

2025-03-11 16:43:47 2245

原创 解决报错ImportError: cannot import name ‘compare_ssim‘ from ‘skimage.measure‘

新的版本已经将ssim放到了structural_similarity。skimage的版本如上图所示,导入ssim 出现如下报错。

2024-12-11 15:48:20 491

原创 自编码器(三)去噪自编码器

在讲BERT的技术的时 候,我们说这个输出就叫做嵌入,接下来有一个线性的模型,就是解码器,解码器要做的事 情,就是还原原来的句子,也就是把填空题被盖住的地方,把它还原回来,所以我们可以说, BERT 其实就是一个去噪的自编码器。或者换一个说法,如图1.2所示,这个BERT它有12层, 最小的那个BERT有12层,比较大的有24层或者是48层,那最小的BERT是12层,如 果我们说这个12层中间,第6层的输出是嵌入,那其实也可以说剩下的6层,就是解码器。图1.1 去噪自编码器的结构。

2024-11-30 00:21:09 506

原创 自编码器(二)

一般在训练的时候就会看到 这种状况,就是因为图片的变化还是有限的。因此我们在做编码器的时候,有时只用两个维度 就可以描述一张图片,虽然图片是3×3,应该用9个数值才能够储存,但是实际上它的变化 也许只有两种类型,那你就可以说看到这种类型,我就左边这个维度是1,右边是0,看到这 种类型就左边这个维度是0,右边这个维度是1。如果我们可以把复杂的图片,用比较简单的方法来表示它,那 我们就只需要比较少的训练数据,在下游的任务里面,我们可能就只需要比较少的训练数据, 就可以让机器学到,这就是自编码器的概念。

2024-11-30 00:15:56 519

原创 自编码器(一)

那这边编码器和解码器,也就是这个自编码器的概念,跟CycleGAN其实是一模一 样的,都是希望所有的图片经过两次转换以后,要跟原来的输出越接近越好,而这个训练的过 程,完全不需要任何的标注数据,你只需要收集到大量的图片,你就可以做这个训练。这个都是见仁见智的问题,这种名词定义的问题,我们就不 用太纠结在这个地方,从自监督学习,即不需要用标注数据来训练这个角度来看,自编码器我 们可以认为它算是自监督学习中的一种方法,它就跟填空或者预测接下来的词元是很类似的 概念,只是用的是另外一种不一样的思路。

2024-11-30 00:11:19 854

原创 深度模型训练优化

图2(a) 横轴指的是训练的过程,就是参数更新的过程,随着参数的更新,损失会越来越低,但是结果 20 层的损失比较低,56层的损失还比较高。残差网络是比较早期的论文,2015年的论文。在训练集上,20层的 网络损失其实是比较低的,56层的网络损失是比较高的,如图2(b)所示,这代表56层的 网络的优化没有做好,它的优化不给力。以第一章的预测未来观看人数为例, 可以增加输入的特征,本来输入的特征只有前一天的信息,假设要预测接下来的观看人数,用 前一天的信息不够多,用56天前的信息,模型的灵活性就比较大了。

2024-11-09 11:01:03 759

原创 ubuntu客户端将服务器Ubuntu主机下的硬盘映射到本地

安装 sshfssudo apt install sshfssshfs 远程主机用户名:远程目录 本地目录(需要先创建)

2024-10-11 21:48:36 188

原创 将ppa.launchpad.net换成中科大源

将文件中http://ppa.launchpad.net替换为https://launchpad.proxy.ustclug.org,如下所示:

2024-09-30 21:14:12 270

原创 可解释性机器学习中的局部解释

可解释性机器学习可以被分成两大类,第一大类叫做局部的解释,第二大类叫做全局的 解释,如图 1 所示。局部的解释是,比如有一个图像分类器,输入一张图片,它会判断出 是一只猫,机器要回答问题是为什么它觉得这张图片是一只猫。根据某一张图片来回答问题, 这个叫做局部的解释。还有另外一类,称为全局解释。其指还没有给分类器任何图片,而直接 问对一个分类器而言,什么样的图片叫做猫。我们并不是针对任何一张特定的图片来进行分 析,我们是想要知道有一个模型它里面有一些参数的时候,对这些参数而言什么样的东西叫 作

2024-09-15 16:03:09 1178

原创 可解释性机器学习的目标

这个实验是这样,在哈佛大学图书馆的打印机经常会有很多人都排队要印东西,这个时候 如果有一个人跟他前面的人说拜托请让我先印5页,这个时候你觉得这个人会答应吗?但这个时候你只要把刚才问话的方法稍微改一下,你说拜托请让 我先印,因为我赶时间,他是不是真的赶时间没人知道,但是当你说你有一个理由所以你要先 印的时候,这个时候接受的程度变成94%。神奇的事情是,就算你的理由稍微改一下,比如 说请让我先印因为我需要先印,仅仅是这个样子接受的程度也变成93%。我们要了解模型的一切,我们要知道 它到底是怎么做出一个决断的。

2024-09-12 08:12:24 470

原创 决策树模型的可解释性

其实不是的,它是一个树状的结构, 那我们可以想像一下,如果特征非常地多,得到决策树就会非常地复杂,就很难去解释它了。所以复杂的决策树也有可能是一个黑盒 子,它也有可能是一个非常地复杂的模型,所以我们也不能够一味地去使用决策树。很多同学都会说,这个打Kaggle 比赛的时候,深度学习不是最好用的,决策树才是最好用的,决策树才是Kaggle比赛的常胜 将军。一棵决策树可以凭借着每一个 节点的问题和答案知道它是怎么做出最终的判断的,但当你有一片森林的时候,你就很难知 道说这一片森林是怎么做出最终的判断的。

2024-09-11 23:31:58 379

原创 可解释性人工智能(eXplainable Artificial Intelligence,XAI)

举例来 说,假设我们都采用线性模型,它的解释的能力是比较强的,我们可以轻易地知道根据一个 线性模型里面的每一个特征的权重,知道线性的模型在做什么事。机器学习未来也会被用在医疗诊断上,但医疗诊断是人命关天的事情,如果机器学习的 模型只是一个黑箱,不会给出诊断的理由的话,那我们又要怎么相信它做出的是正确的判断 呢。现在也有人想把机器学习的模型用在法律上,比如说帮助法官判案,比如一个犯人能不 能够被假释,但是我们怎么知道机器学习的模型它是公正的呢,它是不是有种族歧视的问题 呢。旁边的人就会欢呼,给它胡萝卜吃。

2024-09-11 23:24:35 608

原创 终身学习的主要解法

对于这种方式,基本的思想 就是每一个参数对我们过去学过的任务的重要性程度是不同的,因此在学习新的任务时,我们尽量不要动那些对过去任务很重要的参数,而是去学一些其他的对新任务比较重要的参数。其实有一种简单的控制变量的方法,就是移动或改变某个参数,如图2所示,我们移 动θb 1 时会发现在一定范围内损失值都是很小的,即接近最优的参数,那么我们就可以认为这 个参数在一定范围可变,相应的重要性参数b1就可以很小,即这个参数对旧任务来说不是很 重要,反之像θb 2 这种不能随意移动的参数对应的重要性参数就必须很大。

2024-09-11 23:21:37 884

原创 终身学习之评估方法

如图1 所示,任务一就 是常规的手写数字识别,任务二其实还是手写数字识别,但只是把每一个数字用某一种特定 的规则打乱,称之为排列,这种算是比较难的,还有更简单的就是把数字右转一次。具体的评估方式如图2所示,首先有一排任务,并且有一个随机初始化的参数,用在 这T 个任务上,得到对应的准确率。然后让模型先学第一个任务,然后在所有任务上分别测 一次准确率,即R1,1,...,R1,T,依此类推。直到学完所有的任务,得到一个准确率的表格,来 评估终身学习的结果。图1 评估终身学习的准确率表格。

2024-09-10 23:28:05 263

原创 终身学习(LifeLong Learning,LLL)

我们先训一个比较简单的网络来做第一个手写数字识别任务,然后再做任务二,任务一 上的准确率是90%,此时就算没有训过任务二,在任务二上也已经有了96%的准确率,可以 说迁移得非常好,说明能够解决任务一,相应地也能解决任务二。但其实这种多任务学习会有这样一个问题,加上我 们需要学习的任务不再是简简单单的二十个,而是一千个,那么我们在学第一千个任务的时 候,按照这个逻辑还得把前面九百九十九个任务的数据放在一起训练,这样需要的时间是比 较久的。而且随着要学习的任务越来越多,所需要 的训练时间也会越来越长。

2024-09-10 23:22:09 1471

原创 元学习之应用案例

在元学习里,如果我们要教机器能 够做N类别K样例分类,那意味着说我们需要准备很多的N类别K样例下的分类任务当做 训练的任务,这样机器才能够学到N类别K样例的算法。同理,我们可以制造出20类别5样例的分类任务,这个任务里 面每一个类别都有5个样例,然后我们可以把这个任务当做训练数据,让机器学习到20类别 5 样例的分类算法。如果我们要去制造一个N类别K样例的任务,那么就是 从这些训练任务的字符里面先随机采样N个字符,然后这N个字符每个字符再去采样K个 样例,集合起来就得到一个训练的任务。

2024-09-10 22:58:06 476

原创 元学习之模型诊断元学习(model-agnosticmeta-learning,MAML)

但是也有文献有相反的结论,比如比较有干扰噪声的这些样本应该给它 比较小的权重,这些样例如果比较接近分类边界线,可能代表它比较有噪声干扰,代表它可能 标签本身就标错了,或者分类是不合理的等等,也许就应该给这些样本比较小的权重。如果在元学习中我们学习的是网络的架构,讲网络架构当作ϕ的 话,那我们就是在做NAS。具体来讲,我们一样有好几个任务的 数据,并且把这些好几个任务的数据通通放在一起,然后接下来我们同样可以找到一个好的 初始化参数,然后再把这个好的初始化参数用在测试的任务上,这就是多任务学习。

2024-09-10 22:51:41 1874

原创 ubuntu24.01 利用samba(SMB)实现不同系统文件共享

其中 username 表示能够访问共享文件的用户名。6 创建 Samba 用户。并按照提示设置访问密码。

2024-09-09 14:19:35 582

原创 元学习与机器学习

在元学习里面,我们要测试的不是一个分类表现的好坏,而是一个学习算法的表现的好 坏,所以在元学习里面为跨任务的测试。举例来说,在机器学习上 面你会害怕训练数据上可能会有过拟合的问题,那在元学习里面也有可能会有过拟合的问题, 比如机器学习到了一个学习算法,这个学习算法在训练任务上做得很好,面对一个新的测试 的任务反而会做得不好,所以元学习也有可能有过拟合的问题。那在机器学习里面,我们需要手动设置一个学习算法,而在元学习里面,我们是有一系列 的训练任务,所以我们也将元学习中的学习算法部分的学习称为跨任务学习。

2024-09-07 08:04:06 745

原创 元学习之如何学习

在元学习里面,我们通常会考虑要 让机器自己学习网络的架构,让机器自己学习初始化的参数,让机器自己决定学习率等等,我 们期待它们是可以通过学习算法被学出来的,而不是像机器学习一样我们人为设定的。如果这个分类是好的,那就代表 我们的L的规则是好的,反之如果这个分类是不好的,就代表说这个学习算法是不好的。最后,元学习的第三个任务就是要找一个学习算法,即找一个ϕ让损失越小越好。这个问题是因为我们的训练单位是任务,所以可以用训练的任务里面的测试数据,训练的任 务里面的测试数据是可以在元学习的训练的过程中被使用到的。

2024-09-06 23:54:09 1138

原创 元学习(meta learning)(一)

这个函数我们用F 来表示它,不同于普通的机器学习算法的输入一张图 片,元学习的函数F 是一个数据集,这个数据集里面有很多的训练数据。我们其实也可以直接学习这个F 函数,对应于我们在机器学习里面介绍的三个步 骤,在元学习里,其实我们要找的也是一个函数,只是这个函数跟机器学习一般要找函数不一 样。实际上没有什么好方法来调这些超参,今天工业界最常拿来解决调整超参数的 方法是买很多张GPU,然后一次训练多个模型,有的训练不起来、训练效果比较差的话就输 入掉,最后只看那些可以训练的比较好的模型会得到什么样的性能。

2024-09-06 23:47:54 305

原创 循环生成对抗网络 Cycle GAN

所以在Cycle GAN中我们有三个网络,第一个生成器的工作是把x转成y,第二个生 成器的工作是要把y 还原回原来的x,另一个判别器的工作仍然是要看第一个生成器的输出 像不像是y域的图,如图2所示。另外,同样的想法可以做无 监督的翻译,例如收集一堆英文的句子,同时收集一堆中文的句子,没有任何成对的数据,用 Cycle GAN 硬做,机器就可以学会把中文翻成英文了。在训练cycleGAN 的时候,其实可以同时做另外一个方向的训练,也就是把橙色的生成器给它y域的图片,让 它产生x域的图片。

2024-09-06 23:40:02 1343

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除