- 博客(18)
- 收藏
- 关注
原创 关于Universal Physics Transformers: A Framework For Efficiently Scaling Neural Operators的阅读笔记
打包的包裹必须能还原原始数据(不能漏东西);拆包只能用包裹里的信息(不能耍花招)。这样才能保证中间的运输环节(时间推进)高效且独立。其实还是不太懂,要看下代码是如何具体实现的?
2025-07-13 23:30:37
1263
原创 关于神经网络压缩方法的学习---实现部分(剪枝)
上一篇笔记记录了对于剪枝原理的学习和思考,本篇学习一下剪枝具体的编程实现方法代码大部分来自网络,剪枝过程使用的源模型为自己训练的model.onnx,模型大小为2MB左右。以下代码来自目录1.导包&定义一个简单的网络2.多参数剪枝3.全局剪枝4.总结目前大部分最先进的(SOTA)深度学习技术虽然效果好,但由于其模型参数量和计算量过高,难以用于实际部署。
2024-12-03 16:34:43
1042
原创 关于神经网络压缩方法的学习-----原理部分(剪枝)
看下来感觉剪枝的方法实质上还是对模型参数的调整,比如调整权重,调整神经元数量,卷积核数量和层数量等,和我自己做的神经结构搜索的研究方向有异曲同工之妙,像是另一种形式的网络搜索。剪枝与神经结构搜索相比,能获取的网络结构有限,只能在当前的网络格式上做改动,但是剪枝逻辑清晰,随机性来自于剪枝比例的限制且实现上更可控;如果我们认为参数的权重大小代表其重要性,权重越大,参数对模型做出的贡献越大,那么把权重小的参数删去后对模型的影响应该也比较小。剪枝常用的工作流程:训练---->剪枝---->微调。
2024-11-28 09:58:50
557
1
原创 机器学习-----sklearn之随机森林
sklearn中随机森林的实现方式,包括分类和回归两部分,其中使用随机森林回归进行了特征矩阵的缺失值填补
2022-08-21 00:16:52
1814
panda_pro_normal_6.6.0_136_1330_10131735_release.apk
2022-11-18
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅