
Crack-Pytorch
TTXS_RS
这个作者很懒,什么都没留下…
展开
-
Windows-Windows Pycharm远程调试
Win2Win的Pycharm远程调试是可行的!!原创 2022-11-25 14:48:20 · 1265 阅读 · 0 评论 -
反卷积参数设置(N倍上采样)
反卷积参数设置(N倍上采样)原创 2022-11-17 18:42:57 · 525 阅读 · 0 评论 -
pycharm 升级后报错
pywintypes.py:2: DeprecationWarning: the imp module is deprecated in favour of importlib; see the module's documentation for alternative uses import imp, sys, os原创 2022-03-16 21:59:28 · 823 阅读 · 3 评论 -
torch.nn.ZeroPad2d() 错误-- Padding length too large
在处理数据的过程中一直运行正常的padding函数突然报错Traceback (most recent call last): File "D:\miniconda\lib\site-packages\IPython\core\interactiveshell.py", line 3437, in run_code exec(code_obj, self.user_global_ns, self.user_ns) File "<ipython-input-39-3415d73fe原创 2021-06-16 19:38:07 · 3045 阅读 · 0 评论 -
cross enrtopy loss 和 softmax loss
看文章看到了作者使用cross-entropy loss 代替 softmax loss,原文如下: Second, the original SegNet is designed for semantic segmentation, which sets up a softmax loss layer to measure the prediction error in each object channel. While in the DeepCrack network, the output翻译 2020-11-07 16:56:48 · 351 阅读 · 0 评论 -
torch.nn.cat()函数
csdn上一些对torch.nn.cat()中dim参数描述存在误导性。很多讲解只是以二维tensor为例,对于初学者很不友好,可能会误以为dim=0就是以行拼接,dim=1就是按列拼接。这种理解在做深度学习时,带来的错误可能是致命性的,torch的输入往往是(batch,channel,H,W),这时候dim=0就是按batch拼接,dim=1就是按channel拼接 。。。demo:>>> import torch>>> a = torch.randn(2原创 2020-10-30 15:58:43 · 2147 阅读 · 0 评论 -
常用精度评价指标(evaluation factors)---持续更新中
常用精度评价指标遇到什么写什么,有错误可以在评论中指出,非常感谢背景精度--precision准确率--accuracy召回率--recallF-Score & F1-Score特异度--specificity遇到什么写什么,有错误可以在评论中指出,非常感谢现在,本文包括精度、召回率、灵敏度、recall、F-Score和F1-Score由于现在还不需要,所以没有给出每个指标的数学含义,后续会有补充背景类别英文缩写含义真阳性TP标签为目标且分为目标真阴性T原创 2020-10-29 19:49:25 · 5216 阅读 · 0 评论