
学习总结
Trizzz
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
2020/02/17 学习总结
每天进步一点点呀,要慢慢积累,加油。1、阅读了论文《Multinomial Distribution Learning for Effective Neural Architecture Search》。论文提出的Performance ranking hypothesis,从想法到写作技巧都值得学习。2、python的iter()的用法,感觉很方便的样子。train_loader里是采样得...原创 2020-02-17 18:16:35 · 221 阅读 · 0 评论 -
2020/01/04学习笔记(《META-NAS》论文阅读的预备知识……)
一、 maximum log-likelihood estimation最大log似然估计的概念具体参考博文:https://towardsdatascience.com/probability-concepts-explained-maximum-likelihood-estimation-c7b4342fdbb1要点:1、为什么叫最大似然估计而不是最大似然概率?——答:理解下面这张图,因...原创 2020-01-04 21:23:03 · 493 阅读 · 0 评论 -
2019/12/25 学习总结(待填坑)
今天发现了自己好多的知识盲区……待填坑——CRF待填坑。encoder-decoder模型的必要性待填坑Transformer待填坑loss函数的各种可选形式待填坑Skip connection的具体思维还需要了解待填坑。bilnear upsampling待填坑。...原创 2019-12-25 20:30:50 · 181 阅读 · 0 评论 -
2019/12/24论文小组交流
今天下午从两点一直开会到6点……emmmmmm,脑子都快宕机啦。赶紧趁还有一些记忆的时候记录一下,虽然记录的内容很简单,但是也还是有用的吧。先祭出一张zxx师兄总结的10篇NAS方向的论文,码住待看。Multinomial Distribution Learning for Effective Nueral Architecture Search论文要点:将搜索空间看作一个联合多项式分布,...原创 2019-12-24 21:56:47 · 468 阅读 · 0 评论 -
2019/12/17
1、复习cityscapes.py时发现几个新的知识点。将训练集、测试集和验证集分别封装成cityscapesSegmentation类。既独立又统一。nn.module是pytorch中所有神经网络模板的父类。当我们需要自己用pytorch编写一个神经网络的类时,也需要继承nn.module。torch.utils.data.Dataset是所有的数据集继承的父类。自定义的citysca...原创 2019-12-17 20:53:14 · 138 阅读 · 0 评论 -
2019/12/09
今天开始阅读师兄给的deeplab项目代码,加油加油加油。1、python中的命令行参数解析模块 —— argparse学会如何添加必选变量,可选变量,设置变量缩写,帮助信息,指定读入的变量类型,限制变量的输入范围choices,设置默认变量等。参考:https://docs.python.org/3/howto/argparse.html#introducing-positional-ar...原创 2019-12-17 17:25:20 · 158 阅读 · 0 评论 -
2019-12-10 学习总结
看代码的过程中,发现自己的基础特别薄弱。要慢慢积累呀。1、深度学习网络是越深越好吗?——网络的degradation问题在我的一般印象中,深度神经网络区别于一般神经网络的地方,就在于它的“深度”两个字。那神经网络的深度对神经网络具体有什么影响呢?从Alexnet采取的7层神经网络开始,后有VGG为了探索神经网络最多能有多深,而采取的16/19层神经网络,再到Googlenet的22层。有人已...原创 2019-12-17 17:23:01 · 176 阅读 · 0 评论