深度学习
zeark
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
keras loss loss_weight 作用要点总结
1、损失函数 loss的作用 ,损失权重 loss_weight作用:loss 函数:主要有 sse msse 等统计学函数,也可以自定义,作用主要是统计预测值和真实值的距离。loss_weight:用来计算总的loss 的权重。默认为1,多个输出时,可以设置不同输出loss的权重来决定训练过程。rnnoise 的gru 官方demo 中:a、主损失为denoise_output ...原创 2019-02-28 16:30:31 · 15696 阅读 · 0 评论 -
深度学习 batch_size epoch 优化
batch_size:可以理解为批处理参数,它的极限值为训练集样本总数。epoch 指深度学习过程中,所有数据迭代的次数。batch_size 太小,算法有可能需要更多epoches 才能收敛。 随着 batch_size 增大,处理相同数据量的速度越快。 随着 batch_size 增大,达到相同精度所需要的 epoch 数量越来越多。 由于上述两种因素的矛盾,batch_siz...原创 2019-03-18 11:38:28 · 1284 阅读 · 0 评论 -
深度学习降噪 与回声消除aec 配合的相关分享
1、回声消除aec 与降噪ns的关系:a、回声消除与ns 的前后关系:回声消除aec 与降噪算法之间的衔接问题一直存在,由于回声消除算法的建模基本都是自适应滤波模拟回声路径,为了尽可能缩短路径,确保自适应滤波的准确性,一般来说aec 都会在ns 之前使用。b、当前aec与ns如何搭配:aec 目前大部分aec 算法单靠自适应滤波是很难完全去除回声,因为线程的波动,回声路径的变化等原...原创 2019-05-10 14:44:23 · 3901 阅读 · 0 评论
分享