
深度学习,机器学习,detection,论文,人工智能
文章平均质量分 79
deardao
昵称为同名微信号,有合作交流的可与我联系
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
计算机领域部分顶级会议排名
计算机顶会排名原创 2025-04-29 11:15:04 · 1415 阅读 · 0 评论 -
领域偏移:协变量移位下的域自适应
这可能不同于以T为条件的结果分布,因为可能存在T与Y相关的因素(例如,如果T是吸烟,Y是肺癌,可能存在一些基因,导致一个人更有可能吸烟,更有可能患肺癌,这说明了T和Y之间强烈的经验相关性;由于p≈(y | x, t)几乎肯定= p∗(y | x, t),所以协变量移位假设成立。如果Y (0), Y(1)⊥T | X,那么分布(X, T, Y (0), Y(1))就是无混杂的。对于分布p∗0 (x, t, Y) = p≈(x)I[t = 0]p≈(Y | x, t = 0),计算Ep≈[Y(0)]同样适用。原创 2024-10-01 11:21:26 · 663 阅读 · 0 评论 -
混合密度网络Mixture Density Networks(MDN)
平方和或交叉熵误差函数的最小化导致网络输出近似目标数据的条件平均值,以输入向量为条件。对于分类问题,只要选择合适的目标编码方案,这些平均值表示类隶属度的后验概率,因此可以认为是最优的。然而,对于涉及连续变量预测的问题,条件平均只能对目标变量的性质提供非常有限的描述。对于要学习的映射是多值的问题尤其如此,就像反问题的解中经常出现的那样,因为几个正确目标值的平均值本身不一定是正确的值。为了获得数据的完整描述,为了预测与新输入向量对应的输出,我们必须对目标数据的条件概率分布进行建模,同样以输入向量为条件。原创 2024-08-04 11:03:01 · 1308 阅读 · 0 评论 -
Pytorch或Tensorflow 深度学习库安装 (简易版)
tensorflow 2.x安装原创 2024-04-21 17:56:21 · 453 阅读 · 0 评论 -
TensorFlow 和 Pytorch 中交叉熵 Cross Entropy Loss 的代码实现和手动实现方式
目录TensorFlow中交叉熵的实现手动实现调库实现对比结果输出结果Pytorch中交叉熵的实现TensorFlow中交叉熵的实现手动实现import tensorflow as tf# logits 为输出层输出logits = tf.constant([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0], [7.0, 8.0, 9.0]])# softmaxsof...原创 2020-04-07 15:36:26 · 3370 阅读 · 0 评论 -
几种MAPE的实现方式
目录方法一 (label 中有NaN值)方法二(label 中有零值)方法三 (限制过大过小值)方法一 (label 中有NaN值)这种方式是为了防止label里面有NaN值,但没考虑是否为零值。def masked_mape(preds, labels, null_val=np.nan): if np.isnan(null_val): mask = ~torch.i...原创 2020-04-05 17:39:54 · 10374 阅读 · 2 评论 -
Neural Ordinary Differential Equation 神经常微分方程(Neural ODEs)
用微分方程的视角来看待和理解神经网络是一种新的视角,该观点最早出现在2016年鄂维南院士的一篇proposal里:A Proposal on Machine Learning via Dynamical Systems. 这里的主要思想是:特定类型的神经网络可以看作离散的微分方程,所以使用现成的微分方程求解器可以帮助获得更好的结果。原创 2019-09-09 22:38:28 · 9222 阅读 · 3 评论 -
快速配置tensorflow,keras,pytorch等深度学习环境
快速配置tensorflow,keras,pytorch等深度学习环境安装GPU驱动安装cuda安装Cudnn安装Anaconda安装pip安装深度学习库安装tensorflow安装keras安装pytorch安装GPU驱动首先保证gpu驱动已经成功安装,根据GPU版本在Nvidia官网下载对应的驱动,windows环境下载Nivdia的安装包,直接安装即可。Linux版本需要退出图形界面,使...原创 2019-07-24 18:18:35 · 471 阅读 · 0 评论 -
深度学习简史
“上帝是一位算术家!” ——雅克比 深度学习(DeepLearning)是人工神经网络(artificialneuralnetwork)的一个分支。1943年,来自美国的数学家沃尔特·皮茨(W.Pitts)和美国心理学家沃伦·麦克洛克(W.McCulloch)首次提出人工神经网络的概念,并对其中的神经元进行了数学建模,从此人工神经网络这一研究领域被开启[1]。194...原创 2019-05-20 11:03:18 · 3657 阅读 · 0 评论 -
Learning a Probabilistic Latent Space of Object Shapes via 3D Generative-Adversarial Modeling
This repository contains pre-trained models and sampling code for the 3D Generative Adversarial Network (3D-GAN) presented at NIPS 2016.http://3dgan.csail.mit.eduPrerequisites论文介绍3D-GAN which generates原创 2017-07-06 10:51:57 · 1176 阅读 · 0 评论 -
faster rcnn: 架构实现过程详细介绍
faster rcnn 相对与 fast rcnn 主要是将 selection search 变成了 rpn(region proposal network)网络来生成候选区域,这样就可以实现end to end training了。 本文主要介绍它的实现过程: image -> vgg (conv_1-5) - > rpn (1,conv_1x1 score; 2, conv_3x原创 2017-06-18 21:14:29 · 807 阅读 · 0 评论 -
论文评述:Learning Deconvolution Network for Semantic Segmentation
2:30 - 4:45 这篇文章是 利用 deconv net 进行 semantic segmentation的先作,在之前ZF曾利用deconv net 做 neural network的可视化工作,它相当于 conv net 的mirror。 作者利用的是VGG16,应该是fine-trunning 其所有层的参数。(文中没有提到,所以是猜测)。 训练过程分为两个阶段,第一个阶段:根据gro原创 2017-06-18 17:32:57 · 766 阅读 · 0 评论 -
论文 Learning to Segment Object Candidates
9:40-11:35这是一篇2015年的文章, 是较早的一篇关于图像的像素分割的论文,但如果分割出来的像素做候选区域会不会大材小用了?因为需要像素级别的标注来监督学习,相比标注ground true box 的难度系数大很多。如果用它来做box proposal的话,对于像素分割的要求则不是太高了,因为网络最后都会对 proposal boxes 做回归的。网络架构图如下:原创 2017-06-16 13:25:02 · 486 阅读 · 0 评论