- 博客(11)
- 收藏
- 关注
原创 远程服务器神器:screen命令
当你通过ssh登录或以ssh为基础的工具软件(比如XShell、PyCharm,VSCode等,可以用这类工具调试,但是最终长时间运行时请以守护进程的方式执行命令)进行远程执行程序时,那么请注意开守护进程来执行程序,避免因为SSH连接中断导致程序终止,遭受不必要的损失。在使用服务器远程跑程序时,偶尔会遇到这样的问题:跑了很久,却突然断开连接了,一夜回到解放前,或者退出窗口重新进入时看不到代码运行界面了。那么,我们在运行代码之前使用screen等命令创建会话窗口,就可以解决以上问题。
2023-06-24 22:05:29
1967
2
转载 标签平滑(label smoothing)
换言之,带有标签平滑的损失要想下降到传统交叉熵损失的程度,就要学习的更好,迫使模型往正确分类的方向走。此外,标签平滑也能够防止模型在训练过程中过于相信真实标签,从而提高模型在未知数据上的泛化能力。
2023-06-22 16:44:04
883
1
转载 分布式训练(中)——DP、DDP模式
1、在DP中,每个GPU上都拷贝一份完整的模型,每个GPU上处理batch的一部分数据,所有GPU算出来的梯度进行累加后,再传回各GPU用于更新参数2、DP多采用参数服务器这一编程框架,一般由若个计算Worker和1个梯度聚合Server组成。Server与每个Worker通讯,Worker间并不通讯。因此Server承担了系统所有的通讯压力。基于此DP常用于单机多卡场景。
2023-05-29 15:42:39
3756
1
转载 分布式训练(上)——rank local_rank node
在整个分布式中的序号,每个进程都有一个rank和一个local_rank,rank是相对整个分布式而言(就是序号从0开始一直到整个分布式中最后一个GPU的数,类似于range(0,整个分布式GPU数量),这里不是相对于一个。WORLD_SIZE代表着所有机器中总进程数(一个进程对应一块GPU),RANK代表着是在WORLD_SIZE中的哪一个进程,LOCAL_RANK代表着当前机器上的第几个进程(GPU)。每个物理节点上面进程的数量,等价于每个电脑上GPU的数量,就是可以开几个进程。
2023-05-28 20:20:41
846
2
转载 模型训练Tricks——EMA指数移动平均
Copy一份模型所有权重(记为Weights)的备份(记为EMA_weights,影子参数),训练过程中每次更新权重时同时也对EMA_weights进行滑动平均更新
2023-05-28 16:06:48
702
1
转载 目标检测的mAP计算
上面我们已经定义好了,下面我们就可以过渡到直接参与计算mAP值的两个指标Precision和Recall。相信大家对这两个指标应该很熟悉,为了完整性,这里再重申一遍:Precision是查准率,意味着预测框中有多少真正包含了目标,计算公式如下:Recall是召回率,意味着真正的目标中有多少被预测框包含,计算公式如下:依旧以上图为例,我们可以轻松的得出TP=4,FP=1,FN=1。从而可以计算出Precision和Recall值都为0.8。
2023-05-23 10:01:22
633
1
转载 【目标检测算法】YOLO-V5训练结果的分析与评价
零、目标检测性能指标一、 confusion_matrix二、P&R&PR&F1_curve1. P_curve2. R_curve3. PR_curve4. F1_curve三、labels&labels_correlogram四、result.png&result.txt1. loss functions2. result.csv五、train_batchx六、val_batchx_labels&val_batchx_pred
2023-05-22 21:41:24
5103
6
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人