自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 跨域语义分割CrDoCo

跨域语义分割1.介绍主要是讲一个域(源域)中学习到的知识应用到另外一个域(目标域)中。由于由于域移位问题(即源和目标数据集之间的域间隙),所学习的模型通常无法概括到新数据集。本文贡献:1)提出了一种对无监督域适应的对抗学习方法,其适用于广泛的密集预测任务;2)提出了跨域一致性损失,为网络训练提供了额外的监控信号,从而进行更准确和一致的任务预测;3)性能目前最强。源代码:https://yunchunchen.github.io/CrDoCo/2.模型结构主要有两个模块:1)图像-图像翻译网络;2)

2021-04-22 11:35:00 1202

原创 手推前向与后向传播

2021-01-20 15:23:40 171

原创 集成学习之Bagging

集成学习之Bagging① Bagging又叫自助聚集,是一种根据均匀概率分布从数据中重复抽样(有放回)的技术。② 每个抽样生成的自助样本集上,训练一个基分类器;对训练过的分类器进行投票,将测试样本指派到得票最高的类中。③ 每个自助样本集都和原数据一样大④ 有放回抽样,一些样本可能在同一训练集中出现多次,一些可能被忽略过程:输入:训练集 D={(x1, y1), (x2, y2), (x3, y3), …(xm, ym)};基学习算法#(网络模型net);训练轮数T.过程:1:f

2020-11-12 11:26:54 847 1

原创 GoogLeNet阅读笔记

论文地址摘要提出了一种名为GoogLeNet的深度神经网络,该神经网络共有22层。在保证预算不变的情况下,增加了网络的深度和广度,架构设计时基于Hebbian principle和多尺度处理。引言目前该领域大部分的进步不仅仅是更强大的硬件、更大的数据集和更大的模型的结果,而是新思想、算法和改进的网络架构的结果。相关工作 从LeNet-5开始,CNN已经有了标准的结构----堆叠的卷积层后面加一或多个全连接层。对于一些大型数据集,一种趋势是增加层的数量和层的大小,而用dropout处理过拟合

2020-10-13 14:52:18 146

原创 阅读文献AlexNet笔记

论文AlexNet笔记原文地址:http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf

2020-10-13 10:51:33 200

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除