【深度学习-显卡算力租用】以智星云平台为例

首先下载好pycharm profession,记住连接云服务器需要下载pycharm的版本是profession,不能用community。

下载好文件传输软件Filezilla(Ubuntu直接在terminal里安装就可以了),win用户网上下载,具体下载方式可以去搜一下,很简单,尤其是linux系统。

智星云官网网址:http://gpu.ai-galaxy.cn/store

接下来开始实例演示:

8aad2ff84d6e4276a3fd7e9ca67b22da.png

一般来说我们选择AI云容器就可以了,如果其他操作可以去看一下平台文档。

选择我们需要的镜像,可以看一下自己的cuda、torch版本,其实不一样一般来说没什么事情。

下一步选择租用服务器,本次选择租用Tesla-V100(16GB)。

1093d2c53a6748a3b3e59a80cebfdb54.png

 一般来说推荐在代码调试阶段或者学习阶段可以用用2080TI(便宜随便用)调试好之后用其他显卡来跑。

dd15dd759c8e4535830a43dc2b68375f.png

 

点击创建实例之后,选择点击SSH连接。然后将ip,port、userid和passport输入pycharm

 根据下图操作进行

7e0032f7d64c4a1396a458f3828653bd.png

4f9f4082a81d4b85ac16e4d77ac49c52.png

SSH登陆

e19c085926984143a030ebf0243076aa.png

d2e8d137a9df44f2bf7c9abf476b87b0.png 

c2079da157af46178f381cb0019b321c.png 这里选择existing的interpreter,因为服务器中已经有环境了,选择root文件下的miniconda/bin/python3即可。

60d9bf5203ce4123be037649f5bb2e14.png 可以看到已经连接到下方已经连接。

3246d0009c2e4d4e9556bc1875591bc0.png 看到background tasks中upload to root,如果数据集过大建议取消,用filezilla传输,因为内置的有点慢,看不到进程,所以用fz软件。

5739b299b3a54973a418cf4977523cc0.png

选择文件下的站点管理器,选择SFTP协议,和pycharm的连接一样。1d3cd3a66aaa40729aebe1e8c29a0040.png

如果upload取消了,就需要自己在tmp文件下创建文件夹,文件夹名称必须与mapping一致,在pycharm中tools的deployment的configuration中的mapping中查看。

deadb66f8ca94610b269d1ac3934af8e.png 

然后将需要的文件拖入对应服务器文件夹下

 a10df5d550cd4aa395d5831d20217f5f.png

05f21f57d5fe49e686f334f769b438f3.png

等待传输完成 ,然后在pycharm中就可以运行模型。

e0933b8e421f42d588bf95bafdf56024.png

模型训练图如上图。

当模型训练完成之后刷新服务器文件夹,把保存文件下载下来保存在本地。

 

 

### A100 GPU 租用平台推荐 在当前深度学习和高性能计领域,A100 GPU 是一种非常受欢迎的选择,因其强大的和高效的性能表现而备受青睐。以下是几个提供 A100 显卡租用的服务平台: #### 阿里云 GPU 云服务器 阿里云作为国内领先的云计服务商,在 GPU 计服务方面具有显著的优势。其 GPU 云服务器支持多种 NVIDIA GPU 型号,其中包括最新的 A100 系列[^3]。用户可以通过灵活的配置方案来选择合适的硬件资源,并享受高效稳定的云端计体验。 #### 猿界 猿界专注于 AI 大模型训练与推理场景下的 GPU 租赁业务,提供了包括但不限于 Nvida 的 A100 和 H100 在内的高端 GPU 资源[^2]。该平台不仅具备丰富的硬件种类可供挑选,还针对特定应用场景优化了网络架构和服务质量,从而更好地服务于科研机构以及企业客户群体对于大规模数据处理的需求。 #### AutoDL 云 GPU 租用平台 AutoDL 提供了一个简单易用的操作界面用于管理整个流程——从账号注册到最终部署完成后的持续维护工作都变得轻松便捷起来[^4]。在这个平台上同样能够找到基于最新技术打造而成的支持 TensorFlow 或 PyTorch 开发框架下工作的强大处理器型号之一即NVIDIA A100 Tensor Core GPUs ,它们特别适用于复杂神经网络结构的学习过程当中因为可以极大地加速矩阵运速度进而缩短整体耗时周期达到事半功倍的效果. ```python import torch print(torch.cuda.is_available()) # 检查是否有可用的CUDA设备 device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') model = YourModel().to(device) # 将模型加载至指定设备上执行前向传播操作等后续步骤... ``` 以上代码片段展示了如何利用 PyTorch 库检测系统是否存在 CUDA 支持并将定义好的神经网络迁移到相应的计装置上去运行以便充分利用所选平台所提供的顶级图形核心单元所带来的好处。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值