深度学习反思

深度学习反思

伴随着计算机硬件性能的提升,深度学习在当今如同时代的宠儿,Computer Vision,Data mining,Nature Language Process....都搭上深度学习的专车,并最终坐上了波音客机。深度学习的框架一个接一个的浮出水面,caffe,tensor flow,cxxnet, mxnet....,而且这些框架已经不屑于在单机单卡的圈圈里面混迹了,他们借助hadoop以及spark这些大数据操作的的燃料,俨然是要造出火箭了。
这些深度学习的富豪们丝毫不把成本和规模放在眼里,这秉性确更像富二代,哈哈。本文权当是给这些富二代送去一些不痛不痒的警示吧。
深度学习最终拟合的模型,对数据的分类确实很有效,对于数据的边界也的确能划分的很好。这些训练后的模型,相当于众多非线性的函数叠加生成的结果。很少paper关注这些非线性函数的相关性,倘若在确定神经元之间的连接和权重后,能对每条神经元的线路统计,并确定这些神经元组成的非线性函数组成的空间,并从中提取正交的函数集,是不是能减少网络的规模呢?
日后打算研究下这个方向,却是真知“拙”见,希望大家不要见笑
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值