- 博客(7)
- 收藏
- 关注
原创 const与引用和指针
const与引用和指针所谓对const的引用和指向const的指针并不是真的指向了const变量,而是引用和指针“自以为是”的觉得指向了const,于是自觉地不去通过引用和指针改变所指对象的值。...
2018-05-24 22:54:23
580
原创 C++引用必须初始化的原因
定义一般变量时:声明:声明变量类型和名字 -> 定义:根据类型分配内存地址空间 -> 初始化:将初始值拷贝到变量的内存地址空间中(三步)因此变量的声明,定义和初始化可以分开,不需要一次完成定义引用类型时:将引用绑定到初始化对象(一步)定义引用类型时必须有初始值(初始值对象),且不能重新绑定到新对象...
2018-05-24 19:52:27
20470
1
原创 C++函数内变量访问优先级
C++函数体内变量访问的优先级:显示访问的全局变量 > 局部变量 > 全局变量int var = 0;int main(){ int var = 99; printf("%d\n", var); //此时print的是局部变量var = 99 printf("%d\n", ::var); //此时print的是显式访问的全局变量::var = 0 return 0;}...
2018-05-24 19:37:10
605
原创 原码,反码与补码
正整数:原码=反码=补码108源码 01101100反码 01101100补码 01101100负整数:补码 =反码+1108源码 11101100反码 10010011补码 10010100
2018-05-24 14:40:18
3512
原创 CNN学习中的一些要点
1. 卷积核的权值是通过训练得到的,但卷积核的数量(通道数)和卷积核的大小是需要预先设定的,常用的卷积核大小有3x3,5x5等。 2. 典型的CNN结构:输入层->卷积层->池化层->卷积层->池化层->全连接层->全连接层->输出层,深度神经网络层数更多,但每个卷积层后并不是必须要加池化层。 3. 一般使用N*N的卷积核对M*M的图像进行卷积后,得到的特征图为(M-N+!)*(M-N+1),特
2017-09-25 19:54:17
354
原创 使用Keras时后端(backend)的切换——切换Tensorflow backend和Theano backend
Keras切换Tensorflow backend和Theano backend在C:\users\用户名.keras目录下打开keras.json: { “backend”: “theano”, “epsilon”: 1e-07, “image_data_format”: “channels_first”, “floatx”: “floa
2017-09-04 17:45:13
1586
原创 强化学习(Reinforcement Learning)的方法分类
强化学习(Reinforcement Learning)的方法分类从Andrew Ng的cs229公开课开始接触强化学习已经有一段时间了,但对于强化学习中的各种方法一直很混乱,有必要简单归类整理一下,涉及的强化学习方法有:Value Iteration 值迭代Policy Iteration 策略迭代Monte Carlo Learing 蒙特卡洛学习Q-learningDQN(Deep
2017-08-01 20:27:51
5288
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅