- 博客(75)
- 资源 (1)
- 收藏
- 关注
原创 力扣打卡第一天
2+5=7,4+6=10(有进位,因此第二位为0),得到7 -> 0,然后3+4=7,因为前一位有进位,所以7+1=8,得到7 -> 0 -> 8。题目解释:在给出的示例中,2 -> 4 -> 3代表342,5 -> 6 -> 4代表的是465.
2024-04-19 23:48:22
342
3
原创 安装mamba_ssm报错
最近想跑一下VM-UNet的代码,结果发现需要安装mamba_ssm,于是我直接pip install mamba_ssm,发现报错,错误提示说需要安装cuda11.6及以上的版本。然后我就默默地安装cuda11.6,后来我才发现不用安装cuda11.6也可以。我们直接把这两个.whl文件下载下来,上传到服务器上面,打开.whl文件所在的文件夹位置,然后运行下面两句代码就可以直接安装所需的包了。上面作者给出了百度网盘链接下载causal_conv1d 和mamba_ssm。
2024-04-11 13:13:32
3220
13
原创 在图片上画出mask和pred
画出论文中《Variance-aware attention U-Net for multi-organ segmentation》的图1,也就是在原图上画出mask和pred的位置。
2024-04-10 14:50:19
551
1
原创 在模型进行inference的时候爆显存
之前以为model.eval()就可以停止计算梯度,但事实上model.eval()貌似只有禁用BatchNormalization和Dropout的功能。
2023-10-30 09:51:10
264
原创 解决ModuleNotFoundError: No module named ‘caffe‘
【代码】解决ModuleNotFoundError: No module named ‘caffe‘
2023-10-14 15:58:59
1257
原创 prostate数据集下载
下载地址:比赛:地址:比赛:PROMISE12: Data from the MICCAI Grand Challenge: 下载地址:比赛:不明。
2023-10-14 14:53:05
1006
原创 为什么通过一致性正则化方法就可以避免将所有未标记数据集分配给同一类?
这意味着,如果对于原始样本 x,模型分配了某个类别的标签 y,那么对于经过轻微扰动后的样本 x’,模型也应该分配相同或相似的标签 y’。一致性正则化可以通过鼓励模型对未标记数据的不同变体具有一致性反应,降低标签噪声的影响,减少将未标记数据分配到错误类别的可能性。综上所述,一致性正则化方法通过增强模型的稳健性、泛化性能和对数据的多样性理解,可以有效地避免将所有未标记数据都分配给同一类别。通过引入一致性正则化,模型更有可能学到对数据的鲁棒性表示,而不是过于依赖训练数据中的噪声或细微变化。
2023-10-10 17:01:30
450
1
原创 基于CE损失将未标记数据分配到不同类别的总所周知的缺点是它可能会导致将所有伪标记数据都分给同一类的原因
这些方法可以帮助模型更好地利用伪标签,避免将所有数据都分配给同一类别,从而改善模型的性能。基于交叉熵(CE)损失将未标记数据分配到不同类别的缺点是可能导致将所有伪标记数据都分给同一类别的问题,这主要是因为交叉熵损失在一些情况下会表现出不稳定性。如果模型在未标记数据上的性能很差,模型可能会在尝试学习如何分配伪标签之前,首先尝试将所有未标记数据分配给同一类别,以最小化初始的交叉熵损失。未标记数据中可能存在噪声或错误的伪标签,这可能导致模型错误地将所有数据都分配给同一类别,因为它试图最小化交叉熵损失。
2023-10-10 16:51:07
89
原创 在SSL中进行交叉熵学习的步骤
此外,根据需要,你还可以定义其他损失函数,如"一致性正则化"损失,用于提高模型的泛化性能。在这个阶段,你可以将交叉熵损失应用于标注数据,同时可以应用其他损失函数,如"一致性正则化"损失,以提高泛化性能。需要注意的是,SSL可以根据具体任务的要求进行不同的变体和改进,包括使用各种正则化技巧和半监督学习策略。首先,你需要准备带有标签的标注数据和没有标签的未标注数据。标注数据通常是在任务中手动标记的,而未标注数据则是未经标记的样本。伪标签是模型对未标注数据的预测结果,可以被视为伪装成真实标签的标签。
2023-10-10 16:22:58
386
原创 prototype-based learning algorithm(原型学习)
Prototype-based learning(原型学习)是一种机器学习方法,它的核心思想是通过存储一组代表性的样本(原型),然后使用这些原型来进行分类、回归或聚类等任务。一个典型的例子是在图像分类中,可以通过选择每个类别的样本的平均值作为原型,然后在测试时将测试图像分配给最接近的原型来进行分类。在分类任务中,原型学习的目标是将测试样本分配给最接近的原型,从而确定其所属的类别。K均值聚类是原型学习的一个典型示例,它将数据点划分到K个簇中,每个簇的中心即为该簇的原型。
2023-10-07 16:53:50
5422
原创 sigmoid和softmax函数有什么区别
Sigmoid函数主要用于二元分类,输出是单一的0到1的概率值。Softmax函数主要用于多类别分类,输出是多个类别的概率分布,概率值之和为1。两者都用于将模型的原始输出映射到概率空间,以便进行分类决策。选择使用哪个函数取决于您的任务和模型架构。
2023-10-06 14:41:47
397
原创 软件工程笔试
1.软件指的是计算机系统中与硬件相互依赖的另 —部分,包括程序、数据和有关的文档,2.面向对象程序语言的三大特征分别是:1.封装,2.继承,3.多态第一个特征:封装:就是把数据和方法放在一个类里面包装起来。第二个特征:继承:当一个类继承了另一个类,通过关键字extends实现继承,被继承的叫父类,继承的类叫子类。在子类生成对象时,先调用父类不带参数的构造方法,在调用子类不带参数的构造方法。第三个特征: 多态:简单的说就是父类型的引用指向子类型的对象。3.代码评审也称代码复查,是指通过阅读代码
2023-10-06 14:35:35
162
原创 安装清华源到你的 Python 环境中
这些步骤将帮助你使用清华大学镜像站来下载 Python 包,从而避免了因网络问题导致的下载速度缓慢或失败的问题。这将从清华大学的镜像站下载并安装 SciPy 包。
2023-09-21 13:02:09
1988
原创 【无标题】
可以下载ITK-SNAP(医学图像2D/3D可视化)进行查看,下载。安装:直接双击.exe文件即可。直接把图像拖入ITK-SNAP。2、导入相应的mask。
2023-08-15 10:49:50
326
原创 科研工具必备!!!
更加精确的文献综述可视化分析,将一篇经典的文献综述,翻译为亿图图示的ocr文字识别功能就能转为文字,并自动生成到画布,也可以根据自己的喜好加图示符号。1s搞定领域内发展现状可视化分析,只需要输入研究方向就可以AI智能生成发展现状,并自动生成思维导图。一键直达文献的参考文献。
2023-04-25 11:56:24
182
原创 Rectified Contrastive Pseudo Supervision用于半监督医学图像分割的校正对比伪监督
医学图像分割方法通常设计为全监督以保证模型性能,这需要大量的专家注释样本,成本高且费力。半监督图像分割可以通过利用大量未标记图像和有限标记图像来缓解该问题。然而,由于伪标签中的潜在噪声和特征空间中的类可分离性不足,从大量未标记图像中学习鲁棒表示仍然具有挑战性,这破坏了当前半监督分割方法的性能。为了解决上述问题,我们提出了一种新的半监督分割方法,称为校正对比伪监督(RCPS),它结合了校正伪监督和体素级对比学习来提高半监督分割的有效性。
2023-04-25 10:11:29
206
原创 Label-Free Liver Tumor Segmentation
通过在CT扫描中使用合成肿瘤,我们证明了人工智能模型可以准确地分割肝脏肿瘤,而无需人工注释。我们的合成肿瘤有两个有趣的优点:(1)形状和质地逼真,即使是医学专业人士也会将其与真实的肿瘤混淆;(II)有效地训练AI模型,该模型可以像训练真实肿瘤的模型一样进行肝脏肿瘤分割——这一结果令人兴奋,因为目前还没有任何只使用合成肿瘤的工作达到与真实肿瘤相似甚至接近的性能。这一结果还意味着,在未来,对肿瘤体素进行逐体素注释的人工工作量(需要花费数年时间来创建)可以显著减少。
2023-04-21 11:40:11
743
原创 Attention和Self-attention的比较和区别
Attention是给出QKV,KV往往是相同的,通过Q这个查询变量,查询V里面的关键信息。把关键信息整合到V里面,得到Z。其实Z就是V的一个新的特征表征(更加完善)。给定一个X,通过自注意力模型,得到一个Z,这个Z就是对X的新的表征(词向量),Z这个词向量相比较X拥有了句法特征和语义特征。Self-attention是attention的一个具体做法,要求QKV同源只不过是做了三组不同的线性变换而已。如下图,求每句话中的单词的相似度。如果Q和V不同源,但是K和V同源那么称为交叉注意力机制。
2023-04-18 11:18:18
725
原创 Attention注意力机制
对于一个模型而言(CNN,LSTM),模型本身很难决定什么重要什么不重要,因此注意力机制诞生了。注意力机制:我们会把焦点聚焦在比较重要的事务上。
2023-04-16 20:51:48
458
原创 在服务器中的文件夹名不要用空格,否则会报错-bash: cd: too many arguments
【代码】在服务器中的文件夹名不要用空格,否则会报错-bash: cd: too many arguments。
2023-04-10 10:33:36
169
原创 如何直接在服务器里面下载数据集或者预训练权重
如果你使用的是Python语言,可以使用urllib或者requests库来下载数据集。此命令将会把从http://example.com/dataset.zip下载的数据集保存到当前工作目录中。此代码将从指定的URL下载数据集,并将其保存为名为dataset.zip的文件。可以使用命令行工具或者编程语言的库来实现直接从服务器下载数据集。
2023-04-07 15:31:37
3304
原创 zip压缩包上传到了服务器怎么解压——提示unzip:command not found
xshell进入压缩包所在的文件夹cd 压缩包路径其中,file.zip为你上传的zip压缩包的文件名。执行该命令后,zip压缩包中的所有文件将被解压到当前目录中。其中,/path/to/directory是你希望解压到的目录路径。执行该命令后,zip压缩包中的所有文件将被解压到指定目录中。请注意,如果你在解压缩时遇到了权限问题,可能需要使用sudo命令以管理员身份运行解压缩命令。
2023-04-06 18:33:44
4386
原创 inception结构
之前在vgg和Alexnet网络中,卷积和池化都是串行,都是在GoogleNet中引入了inception结构,使得可以并行。右图引入1×1卷积层是因为可以减少参数,减少通道数从而减少运算量。
2023-04-04 20:31:25
79
原创 CNN感受野概念及计算
在卷积神经网络中, 决定某一层输出 结果中一个元素所对应的输入层的区域大 小, 被称作感受野 ( receptive field)。通俗 的解释是, 输出 feature map 上的一个单元 对应输入层上的区域大小。在图1中,第三层中的一个单元对应第二层中的感受野是一个2×2的区域,在原图(第一层)对应的感受野是一个5×5的区域。
2023-04-04 17:19:26
88
原创 目标检测中常见指标
mAP 是 Mean Average Precision 的缩写,即 均值平均精度。作为 object dection 中衡量检测精度的指标。计算公式为:mAP = 所有类别的平均精度求和除以所有类别。
2023-04-02 21:10:12
1081
原创 同济子豪兄讲述YOLOv1学习笔记
因为网络把图像划分成s×s个grid cell(网格),在YOLOv1中s=7,所以是7×7的网格,如图3中最左边的图展示的。每个grid cell又可以预测出B个bounding box(就是B个预测框,预测框包含了x,y,h,w,c五个参数。x,y,h,w四个定位坐标,中心店坐标和框的宽高,因此就可以确定框的位置。图中置信度由框的线粗细表示,c表示置信度,粗的表示置信度比较高,如图3所示。
2023-03-17 09:51:19
1052
2
原创 下载数据集时报错
我自己下载数据集的时候出现了很多错误,直接把网上大家下载好的下载下来也报错,后来就让他自己下,但是也报错,最后发现让他自己下载的时候必须要在你指定的位置先新建一个processed文件夹!!!
2022-11-07 17:13:56
1514
原创 B站学深度学习
1、西瓜书看周志华老师自己讲的课,但是不全,看完周志华老师讲的哪里没讲的可以再看B站上的视频。2、代码复现看《同济子豪兄》或者《霹雳吧啦》3、pytorch深度学习实战看《刘二大人》4、论文看《跟着李沐学AI》
2022-11-04 10:19:44
678
1
in __getitem__ 报错
2023-04-14
TA创建的收藏夹 TA关注的收藏夹
TA关注的人