- 博客(84)
- 收藏
- 关注
原创 关于 nn.ZeroPad2d((L, R, T, B ))
那么表示的是左右上下padding的是一样。但是,如果我们传入的参数是一个4-tuple,那么表示左右上下padding是不一样。其实这个函数的作用很简单,就是进行padding,然后你可以只输入一个参数,即。
2024-12-26 18:01:31
205
转载 关于math.log(x[, base])
在两种不同的计算方式下,中间结果的近似和浮点数运算引入额外的误差也不尽相同。math.log10(x) 是直接以 10 为底进行计算的。math.log(x) 是以自然底数 e 来计算,所以。结果为2.9999999999999996, 但是。因此, Python的。
2024-12-26 17:54:35
105
原创 关于科研中惊艳的代码集锦
子集的大小是args.data_size. (不放回体现在replace=False,而该参数默认是True)的返回值是True,那么 fingerprints = fingerprints;, 作用其实是把decoder_ouptput变成了布尔张量,其形状与。的返回值是False, 那么 fingerprints = 0。decoder_output中的数值是-1到1之间的。当 t threshold 的时候, 那么。相同,但每个值是布尔值(
2024-12-26 17:12:25
334
原创 关于科研中使用linux服务器的集锦
如果目标文件夹中已经有同名文件或文件夹,mv 会覆盖它们(除非使用了 -i 选项来提示确认)。Kaggle上有分享的COCO2017数据集备份,可以从这里下载,会比较快,网址是。下载完成✅后,得到一个压缩包名叫“COCO2017”。然后就需要解压它了。使用 -v 选项可以让命令显示详细的移动过程,方便你了解发生了什么。(记得复制到的链接要用双引号引起来哦!解压到指定的目录中。然后选择下载量最多的那个点进去。
2024-12-25 22:11:51
354
原创 生成0&1二进制message的方式
第二种 相比第一种的优势就是可以自己控制生成0和1的概率。表明是均匀分布的概率。因此当前的例子两种写法是等价的。
2024-12-20 13:24:21
123
原创 python函数定义时限定方法的参数类型&返回值类型&变量类型
在读到一些写的很标准的官方代码中,我们时常会看见这样的写法。其实了解过之后,才发现,这种写法的好处有很多,方便理解和阅读。
2024-11-10 11:46:09
318
原创 关于上采样&下采样
总的来说,PyTorch选择不提供 Downsample,是因为池化和卷积已经涵盖了常用的下采样需求,同时允许用户有更大的控制和灵活性。,可以选择不同的插值方法来填充新生成的像素值,常见的方法包括 nearest(最近邻插值)和 bilinear(双线性插值)。,适合特征图的放大需求,通过不同的插值方式控制上采样质量,具体选择取决于计算效率和精度的平衡。是 PyTorch 中用于上采样的层,能够将较小的特征图放大到更高的分辨率。因为下采样实现的方式有很多的,通常,下采样任务是通过池化层(如。
2024-11-09 23:29:52
481
原创 关于报错:non-singleton dimension 1
RuntimeError: The size of tensor a must match the size of tensor b at non-singleton dimension 1 。什么是non-singleton dimension 1
2024-11-09 20:15:32
382
原创 深度学习中gpu的写法
采用此方法定义gpu卡号,那么在使用的时候,比如我们要把一个模型放到gpu上,可以这样写。使用方法和上面不同,此方法使用方式为。这句话不管放在哪里都行,比如。
2024-11-09 18:46:17
534
原创 tensorboard日志在linux服务器上,如何在本地可视化查看?&可视化命令&tensorboard使用教程
'SummaryWriter' object has no attribute 'export_scalars_to_json'
2024-10-23 09:35:16
749
原创 一个检测work是否被包含在训练数据集中的工具
这可以帮助用户了解自己的信息是否被用于训练AI模型。简而言之,它是一个帮助用户了解自己数据是否被用于AI训练的工具。这个网站名为 “Have I been Trained?
2024-10-17 13:09:45
190
原创 关于为什么蒸馏后的小模型和一开始的小模型的区别是什么?
我的第一反应其实是懵的,从来没思考过这个问题。蒸馏后的小模型就类似于见过了很多世面,有很多的人生经历的老者,然后将自己一生的有价值的经验和经历浓缩,传授给后辈,让其不走弯路。而直接训练一个小模型就类似一直在大山里生活,无论训练多久,始终见识到的是有限的、狭窄的,所以能力得不到提升。长期从事机器学习基础理论研究,为设计更有效的新算法提供理论指导,并开发基于机器学习的医疗影像诊断算法与系统。主持人提问:训练一个大模型,然后再将其压缩蒸馏成一个小模型,那和直接训练一个小模型, 这两者的区别是什么?
2024-10-17 13:02:32
423
原创 介绍xshell的使用技巧
作用:可以记录我们使用xshell时候的输出情况,比如我们代码中print的一些数值,print的一些指标值等等,所以我觉得可以充当代码中的记录指标变化的作用。(不过至于能不能完全替代 我觉得可以算作一种初步的分析吧)使用场景:打开撰写栏,太长的指令可以在里面编辑。
2024-10-12 16:21:44
338
原创 如何通过wos进行论文的他引的查找
然后在得到的界面中,查找选中你所查论文中的所有作者,查找完成后,点击。本帖子主要介绍的是 如何通过wos进行论文的“他引量”的查找。然后得到的界面的数字 就是 他引量。然后点进去搜索,点击。
2024-10-12 16:05:14
1274
原创 简单了解什么是哈希算法
MD5是最常见的哈希算法,速度很快,生成结果是固定的128 bit/16字节,通常用一个32位的16进制字符串表示;比SHA1更安全的算法是SHA256和SHA512,不过越安全的算法不仅越慢,而且哈希长度更长。哈希算法符合加法结合律:简单说比如对两个字符串加密和直接对一整个字符串加密的结果是一样的。这是很关键的,不能用于加密是因为hash是一个单向的函数,解密是很困难的即使是开发者自己。而且,对原始数据做一个bit的修改,都会导致计算出的哈希完全不同。提供了常见的哈希算法,如MD5,SHA1等等。
2024-10-12 15:50:08
507
原创 Image读取图像后续使用
关于Image读取图像后的一些细节,我一直没有搞得很清楚。诚然,这篇博客或许也不会将的很清楚,也仅是我的一点经验之谈而已。注意⚠️:这个博客中的内容可能存在问题,后续会更新的。
2024-09-10 15:38:19
316
原创 Python中的省略号
是 Python 中的省略号(ellipsis),用于表示选取张量中的所有前面的维度。例如,对于一个形状为 (batch_size, channels, height, width) 的 4D 张量,使用 tensor[…, h, w] 直接获取所有 batch 和 channel 下的特定 (h, w) 位置的元素。)是一个Python对象,叫Ellipsis,它没有方法,是一个单例对象(singleton object)。简化代码:如果你只对张量中的某些维度感兴趣,而不想逐一列出所有前面的维度,
2024-08-28 19:44:58
471
原创 pytorch中 tensor.repeat()函数用法
用于进行张量数据复制和维度扩展的函数。参数是沿着维度重复的次数。正确使用例子:参数数量大于等于维度个数。
2024-08-21 11:06:11
884
原创 exploration-exploitation dilemma 探索-利用困境
Exploration-exploitation dilemma(探索-利用困境)是强化学习、决策论、控制理论、人工智能以及更广泛的科学领域中的一个基本概念。
2024-08-16 10:12:23
415
原创 什么是线性规划
在数学中,线性规划(linear programming,简称LP)指目标函数和约束条件皆为线性的最优化问题,是运筹学的一个分支。
2024-07-09 09:28:36
202
1
原创 os.makedirs
类似,但是 mkdir() 只会创建单层目录;而 makedirs() 会自动创建到达最后一级目录所需要的中间目录。完整代码的解释是:创建一个名为’sample_images’的目录,该目录位于。(默认值),则如果目标目录已存在将引发 FileExistsError。如果这个目录已经存在,不会引发任何错误。如果目录已经存在,不会产生任何错误或异常。
2024-07-07 16:00:50
581
原创 torch.Tensor.uniform_ 和torch.numel
带有下划线的 in-place 操作方法通常比非 in-place 操作更节省内存,但需要小心使用,因为它们会改变原始数据。(注意⚠️没有torch.Tensor.uniform这个方法)在 PyTorch 中,函数或方法名末尾带有下划线(原始张量Tensor的内容,而不是创建一个新的张量。操作,也就是说,这个操作会。
2024-07-05 14:13:49
452
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人