- 博客(5)
- 收藏
- 关注
原创 跨域语义分割CrDoCo
跨域语义分割1.介绍主要是讲一个域(源域)中学习到的知识应用到另外一个域(目标域)中。由于由于域移位问题(即源和目标数据集之间的域间隙),所学习的模型通常无法概括到新数据集。本文贡献:1)提出了一种对无监督域适应的对抗学习方法,其适用于广泛的密集预测任务;2)提出了跨域一致性损失,为网络训练提供了额外的监控信号,从而进行更准确和一致的任务预测;3)性能目前最强。源代码:https://yunchunchen.github.io/CrDoCo/2.模型结构主要有两个模块:1)图像-图像翻译网络;2)
2021-04-22 11:35:00
1202
原创 集成学习之Bagging
集成学习之Bagging① Bagging又叫自助聚集,是一种根据均匀概率分布从数据中重复抽样(有放回)的技术。② 每个抽样生成的自助样本集上,训练一个基分类器;对训练过的分类器进行投票,将测试样本指派到得票最高的类中。③ 每个自助样本集都和原数据一样大④ 有放回抽样,一些样本可能在同一训练集中出现多次,一些可能被忽略过程:输入:训练集 D={(x1, y1), (x2, y2), (x3, y3), …(xm, ym)};基学习算法#(网络模型net);训练轮数T.过程:1:f
2020-11-12 11:26:54
847
1
原创 GoogLeNet阅读笔记
论文地址摘要提出了一种名为GoogLeNet的深度神经网络,该神经网络共有22层。在保证预算不变的情况下,增加了网络的深度和广度,架构设计时基于Hebbian principle和多尺度处理。引言目前该领域大部分的进步不仅仅是更强大的硬件、更大的数据集和更大的模型的结果,而是新思想、算法和改进的网络架构的结果。相关工作 从LeNet-5开始,CNN已经有了标准的结构----堆叠的卷积层后面加一或多个全连接层。对于一些大型数据集,一种趋势是增加层的数量和层的大小,而用dropout处理过拟合
2020-10-13 14:52:18
146
原创 阅读文献AlexNet笔记
论文AlexNet笔记原文地址:http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf
2020-10-13 10:51:33
200
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人