- 博客(4)
- 收藏
- 关注
原创 pycharm如何运行python -m torch.distributed.run
是 PyTorch 官方提供的一个命令行工具,用于简化在多台机器(或多个 GPU)上启动和管理分布式 PyTorch 训练脚本的过程。包(特别是- DDP或)进行分布式训练的 PyTorch 脚本后,你需要在多个进程(通常每个 GPU 一个进程)上同时启动这个脚本。但是手动管理这些进程(指定不同的端口、rank、world_size、主地址等环境变量)非常繁琐且容易出错。就是为了解决这个痛点而存在的。: 第 0 号节点(Rank 0)的 IP 地址或主机名(通常是运行命令的那台机器)。
2025-06-24 13:28:44
1155
原创 问题:Compile with `TORCH_USE_CUDA_DSA` to enable device-side assertions.
之前不知道原来维度没对上,也会报CUDA的错误,这个解决方法不适用于所有出这个问题的情况,这里仅仅做一个记录。模型的时候,只要开始训练,就会报上面这个错。找了很多方法,但都无济于事。模型的时候,代码还一切正常,直到更换成。
2024-07-30 15:12:19
2027
原创 用Stanfordcorenlp制作依存语法树并可视化
最近在使用Stanfordcorenlp(以下简称该工具)构建依存树,但目前该工具需要在Java环境下才可以运行,所以由于在Windows系统上,有Stanfordcorenlp包可以直接使用,但要提前下载安装包。下载后,解压到一个文件夹内...
2021-11-01 21:04:04
4137
9
原创 keras计算precision、recall、F1值
近期写课程作业,需要用Keras搭建网络层,跑实验时需要计算precision,recall和F1值,在前几年,Keras没有更新时,我用的代码是直接取训练期间的预测标签,然后和真实标签之间计算求解,代码是from keras.callbacks import Callbackfrom sklearn.metrics import confusion_matrix, f1_score, precision_score, recall_score class Metrics(Callback):
2021-01-14 19:50:44
7752
38
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅