首先介绍几个很不错的介绍BNN的blog(按易于理解的推荐阅读顺序)(可能有的需要购买才能读):
https://medium.com/@joeDiHare/deep-bayesian-neural-networks-952763a9537:
这篇博客里讲了一个很重要的总结,实现BNN的三个思路:
Here’s my take on three approaches.
- Approximating the integral with MCMC
- Using black-box variational inference (with
edward)- Using MC dropout
关于Variational Inference,可以看这个:https://medium.com/@jonathan_hui/machine-learning-variational-inference-273d8e6480bb
不过说实话确实不好懂。
然而,上面 提到的,两年前很热门的Edward这个package,到底用的是MCMC还是VI,这个blog里的观点好像与第一篇不一样:
理解Bayesian Neural Networks:包对比与实现策略

本文介绍了Bayesian Neural Network(BNN)的基础知识,包括通过MCMC、Variational Inference(VI)和MC Dropout实现BNN的三种方法。提到了一些深入理解BNN的博客资源,并探讨了Edward包的支持情况,指出Edward2同时支持MCMC和VI。还推荐了一篇包含代码的博客,帮助读者更好地理解和应用BNN。
最低0.47元/天 解锁文章
2232

被折叠的 条评论
为什么被折叠?



