- 博客(6)
- 收藏
- 关注
转载 训练集、验证集以及测试集
参考https://zhuanlan.zhihu.com/p/48976706现在我们需要调节超参数来使得模型泛化能力最强。我们使用测试集来作为泛化误差估计,而我们最终的目的就是选择泛化能力强的模型,那么我们可以直接通过模型在测试集上的误差来调节这些参数不就可以了。可能模型在测试集上的误差为0,但是你拿着这样的模型去部署到真实场景中去使用的话,效果可能会非常差。这一现象叫做信息泄露。我们使用测试集作为泛化误差的近似,所以不到最后是不能将测试集的信息泄露出去的,就好比考试一样,我们平时做的题相当于训练集,
2021-03-11 10:36:57
329
1
原创 code----gc-net笔记----7788---ji0gousui
《gc-net》 参考别人写的pytorch版本代码链接1 generate-image-list.py生成图像的绝对路径列表,用于后续读取,下载下来的scene flow图片文件夹如下:import osdef generate_image_list(data_dir= "C:/.../data_scene_flow/training" , label_dir= "C:/...\data_scene_flow"): left_data_files = [] right_data
2021-03-11 10:35:16
368
2
原创 论文阅读:SegStereo: Exploiting Semantic Information for Disparity Estimation(利用语义信息进行视差估计)
1 Introduction我们的SegStereo (嵌入语义线索的立体)模型有利于无监督和有监督的训练。在无监督训练中,光度一致性损失和语义软最大值损失都被计算并向后传播。语义特征嵌入和语义softmax损失都可以引入语义一致性的有利约束。在KITTI立体数据集上评估的结果证明了我们策略的有效性。我们还将无监督模型应用于 CityScapes 数据集。它产生了比经典SGM方法更好的性能。对于有监督的训练方案,我们采用有监督的回归损失代替无监督的光度一致性损失来训练模型,这在KITTI Stereo基准
2021-02-14 10:40:31
562
转载 正则化解释
正则化解释从使用正则化解决了一个什么问题的角度来看:正则化是为了防止过拟合, 进而增强泛化能力。给需要训练的目标函数加上一些规则(限制)。具体解释如转载链接:https://charlesliuyx.github.io/2017/10/03/%E3%80%90%E7%9B%B4%E8%A7%82%E8%AF%A6%E8%A7%A3%E3%80%91%E4%BB%80%E4%B9%88%E6%98%AF%E6%AD%A3%E5%88%99%E5%8C%96/...
2021-02-13 16:38:15
183
原创 文献阅读笔记 GC-Net (END-TO-END LEARNING.....)
文献阅读笔记: End-to-End Learning of Geometry and Context for Deep Stereo Regression本文提出一种新颖的深度学习体系结构,用于从矫正的立体图像对中回归视差。利用问题的几何知识来形成一个使用深度特征表示的成本量。学习在这个体积上使用三维卷积来整合上下文信息。使用提出的可微分soft argmin操作从成本量中回归视差值,这能够在不需要任何额外的后处理或正则化的情况下,从端到端地训练我们的方法到亚像素的精度。在场景流和KITTI数据集上评估
2021-01-23 15:03:42
1293
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人