
深度学习
深度学习,机器学习实践过程中的总结
Neil_baby
这个作者很懒,什么都没留下…
展开
-
keras自定义监控变量
keras自带的监控变量就是mse,mae等,有时我们想自定义监控的变量,比如学习率,或者其它一些我们自定义的参数,keras自定义监控变量和自定义损失函数很类似,都是通过这个类似内部函数的方式,例如监控学习率。 # 监控学习率 def get_lr_metric(optimizer): def lr(y_true,y_pred): return optimizer.lr return lr optimizer = keras.optimizers.adam(lr=1原创 2020-09-17 10:08:33 · 480 阅读 · 0 评论 -
Keras自定义损失函数,多个输入
Keras默认的自定义损失函数参数形式固定,一个为y_true,另一个为y_pred 例如: def myloss(y_true,y_pred): pass # 自定义损失函数 def myloss(y_true,y_pred,neighbor_Y): lamb1 = 0.7 lamb2 = 0.3 loss1 = K.mean(K.square(y_pred - y_true)) neighbor_Y = Reshape((3,))(neigh.原创 2020-09-14 16:42:05 · 1868 阅读 · 0 评论 -
让人郁闷的random.shuffle
最近因为自己的疏忽,出现了一个比较严重的问题,让我查了好几天,最后才发现问题,原来主要问题我用了random.shuffle,强力建议大家以后少用random.shuffle,尽量用numpy.random.shuffle。 我本来是想把训练样本打乱,然后划分测试集和训练集,我用了random.shuffle,结果杯具了,分类效果非常好,好的我无法相信,最后我反复排查,原来是用random.shuffle打散出了问题。我做了个实验: a = np.arange(1,10).reshape(-1,3)原创 2020-07-25 16:23:48 · 409 阅读 · 0 评论 -
打印Keras模型权值
# define model model.load_weights(modelname) weights = model.get_weights() for lay in model.layers: with open('./model_weights.txt','a+',encoding='utf-8') as f: f.write(lay.name + '\n') f.write('shape:' + str(lay.get_weights().shape) + '\n') f.write(str(l.原创 2020-09-09 10:33:16 · 533 阅读 · 0 评论 -
Darknet安装
https://pjreddie.com/darknet/可以看到darknet优点,便于使用,封装性好,也提供了OPENCV,GPU的支持。 安装及其方便。 1.Github上下载代码。 2.make ( 暂时先不改Makefile,默认没有GPU加速) 3.执行./darknet detect ./cfg/yolov2-tiny.cfg ./yolov2-tiny.weights./data/dog.jpg 命令行上可以看到结果 同时也看到结果。 ...原创 2020-06-04 18:09:51 · 227 阅读 · 0 评论