- 博客(5)
- 收藏
- 关注
原创 大石头的搬运工(蓝桥杯题解)
这个题目,我最开始的想法是,石头只能移动n-1轮的话,那么每次选择一堆石头移动,必须要移动到另外有石头的堆上,才能满足n-1内将所有石头移动到一堆上。那么,如何解决最优问题?52我是这样思考的,所有石头最终都应该移动到一个位置上,那么这个位置左边的石头在前n-1次移动中,绝不可以向左边移动(例如上面的列表中的情况,假设我们最终的target_position=5,那么3位置上的石头绝不可以先移动到1位置再移动到5,这样3-1和1-3这两段路径一定是多余的;
2025-01-12 00:04:26
995
原创 多卡分布式训练过程中报错解决:RuntimeError: Expected to have finished reduction in the prior iteration before start
在调试一份训练代码时候遇到了一个错误,还是总结一下吧!错误解释:按照终端打印的结果看,是由于模型的在计算loss,反向传播后发现有参数未更新,导致下一个step的训练无法进行。
2024-11-07 21:32:28
1333
原创 使用webdataset进行多卡分布式训练
由于实验原因,需要用到webdataset在多卡上进行高效训练(主要是减少dataset加载图片在IO上浪费的时间),那么在单卡上训练的教程已经很多在教程了。在网上一顿搜索发现,官方给的样例(WebDataset + Distributed PyTorch Training)也没有具体解释一些参数的含义,那么我自己实验加自己的理解,然后总结了webdataset的训练流程和参数意义。参考文章:关于100这个倍数因子,我的理解是可以重复采样,WebDataset的设计通常是为无限数据集或流式数据集服务。
2024-11-06 01:40:08
1851
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人