
pytorch的使用
自用代码,欢迎交流
小蜗笔记
互联网垃圾制造者
展开
-
自动配置合适的cuda和pytorch版本
摘要: 查看CUDA版本可通过以下方法: 命令行:nvcc --version或nvidia-smi(显示驱动支持的最高版本)。 Linux符号链接:检查/usr/local/cuda指向的目录。 PyTorch:torch.version.cuda获取框架使用的版本。 RTX 4090配置建议: CUDA:推荐11.7+,确保兼容新显卡特性。 PyTorch:匹配CUDA版本(如2.0.0+),通过官方命令或国内镜像安装。需提前更新NVIDIA驱动。原创 2025-05-25 10:02:28 · 865 阅读 · 0 评论 -
显卡、Cuda和pytorch兼容问题
RTX 4090 未正确安装与 PyTorch 兼容的 CUDA 版本可能导致性能问题。首先,通过 torch.version.cuda 查询 PyTorch 绑定的 CUDA 版本,确保与系统安装的 CUDA Toolkit 一致。使用 nvidia-smi 检查驱动支持的 CUDA 版本,确保其不低于 PyTorch 所需版本。若版本不匹配,需卸载并重新安装指定 CUDA 版本的 PyTorch。多 CUDA 版本共存时,通过环境变量调整优先级。验证安装后,确保 torch.cuda.is_availa原创 2025-05-17 12:34:22 · 910 阅读 · 0 评论 -
torch返回所有最大值索引
【代码】torch返回所有最大值索引。原创 2025-05-01 09:58:08 · 102 阅读 · 0 评论 -
PyTorch实际上是按照**行优先(Row-Major)**的方式存储数据
虽然从理论上讲,由于PyTorch采用行优先存储,按行进行操作(比如对每行求和、应用激活函数等)可以更高效地利用缓存,从而潜在地提供更好的性能。然而,在实践中,除非你的应用程序特别敏感于内存访问模式,否则这种差异可能不会特别显著。更重要的是选择适合你应用场景的最佳算法和数据结构。如果你发现性能瓶颈确实与内存访问模式有关,那么调整操作的方向(行 vs 列)可能会带来一定的性能提升。原创 2025-04-29 16:40:02 · 486 阅读 · 0 评论 -
LSTM的使用
【代码】LSTM的使用。原创 2022-08-29 17:24:24 · 870 阅读 · 0 评论 -
深度学习CNN网络,MNIST数据分类
【代码】深度学习CNN网络,MNIST数据分类。原创 2022-08-27 21:55:11 · 383 阅读 · 0 评论 -
BatchNorm和Dropout的使用
【代码】BatchNorm和Dropout的使用。原创 2022-08-27 14:58:12 · 352 阅读 · 0 评论 -
几个优化器的使用SGD,Momentum,RMSprop,AdaGrad,Adam
【代码】几个优化器的使用SGD,Momentum,RMSprop,AdaGrad,Adam。原创 2022-08-26 20:46:53 · 528 阅读 · 0 评论 -
pytorch一般神经网络的代码
【代码】pytorch一般神经网络的代码。原创 2022-08-22 15:24:48 · 654 阅读 · 1 评论