- 博客(3)
- 收藏
- 关注
转载 learning rate
1.learning rate 是调参的重要一项。过大,会造成跳过了极值点、找不到极值点、在极值点附近徘徊。以y=x^2,x=5为例,learning rate 设为1,则无论多少轮迭代,值都不会下降。一直在x=5,-5徘徊。而learning rate 过小效率极低。收敛时间过长。 2.tf提供tf.train.expontntial_decay(lr,global_step,epoch...
2018-04-08 17:25:40
756
转载 tf.summary、tfrecord
tf.summary 通常情况下,我们在训练网络时添加summary都是通过如下方式:tf.scalar_summary(tags, values)# ...summary_op = tf.summary.merge_all()summary_writer = tf.summar...
2018-04-02 11:19:38
960
转载 二维数组动态分配内存
1. 二维数组动态分配和释放1. 已知第二维char (*a)[N];//指向数组的指针a = (char (*)[N])malloc(sizeof(char *) * m);printf("%d\n", sizeof(a));//4,指针printf("%d\n", sizeof(a[0]));//N,一维数组free(a); 123452. 已知第一维char* a[M
2017-11-07 12:03:01
441
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人