云GPU服务器部署及pycharm远程连接

作者从CoLab迁移到腾讯云服务,购买了配备NVIDIAT4GPU的服务器。在创建云服务器后,通过预装的PyTorch和CUDA进行环境测试。使用JupyterNotebook并设置远程访问。然后,作者在本地通过PyCharm专业版配置远程连接到GPU服务器,虽然初次运行失败,但计划进一步配置所需环境。
部署运行你感兴趣的模型镜像

我们在之前使用CoLab来运行项目,但其存在时长限制问题所以并不是很理想,今天博主发现腾讯云服务目前在搞活动,比较实惠,便买了一台来体验一下。

直接搜索gpu服务器租用即可找到

购买服务器

博主买的是NVIDIA T4 GPU,还是较有性价比的
在这里插入图片描述

购买成功后创建云服务器,但由于资源紧张,博主的没有创建成功。哎只能等明天了,毕竟太火爆了。呜呜呜,明天接着来。

终于在1月19日这天,我抢到了,呜呜呜,可能临近放假吧
我们选择预装的系统

在这里插入图片描述

这里博主预装了pytorch以及cuda,之前买使还没有这个选项,哈哈哈哈
创建实例成功。我们在此登录一下。

在这里插入图片描述

简单测试

登录成功。我们使用nvidia-smi查看先GPU资源

在这里插入图片描述
我们查看一下系统按照的文件,发现其已经帮我们安装好了Jupyter,,我们直接输入:jupyter notebook --ip=0.0.0.0 --port=8000
然后复制我们的token

在这里插入图片描述
然后输入IP地址+8000端口,在输入token即可,我在下面设置了密码,以后也就不需要再去用token了,登录进去后便是这样的。

在这里插入图片描述

我们newy一下,然后测试一下我们的pytorch等环境是否正常

import torch # 如果pytorch安装成功即可导入
print(torch.cuda.is_available()) # 查看CUDA是否可用
print(torch.cuda.device_count()) # 查看可用的CUDA数量
print(torch.version.cuda) # 查看CUDA的版本号

在这里插入图片描述

Pycharm专业版安装

当然我们可以再本地调用gpu资源,以pycharm为例,我们需要使用专业版。

在这里插入图片描述

博主之前使用这个版本的社区版,这次也使用这个版本吧,安装很简单,一路next即可。

在这里插入图片描述

PyCharm远程连接GPU

然后就OK了,随后我们使用pycharm来连接服务器。

在这里插入图片描述

起个名字

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

连接成功

在这里插入图片描述

这里的本地文件与服务器文件映射默认即可,点击ok即可

在这里插入图片描述

随后配置运行环境 在【preferences】中选择【project interpreter】【V】【show all】

在这里插入图片描述

这里可能会提示移动配置,点击Move即可出现以下界面:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

可以看到我们的环境已经出现了

在这里插入图片描述

依赖已经出现,说明成功了

在这里插入图片描述

我们可以尝试运行一下。不出所料失败了,这很正常,因为这里面好多环境都没有配置好呢,下面博主便借助这个服务器来配置一下所需的环境。
敬请期待!

您可能感兴趣的与本文相关的镜像

PyTorch 2.9

PyTorch 2.9

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

### 配置 PyCharm 实现远程连接 GPU 开发和调试 #### 一、准备环境 为了使 PyCharm 能够顺利连接并利用远程服务器上的 GPU 进行开发与调试工作,需先确认目标机器已安装好必要的软件包以及驱动程序。这通常意味着要在 Linux 或 Windows Server 上部署 TensorFlow-GPU 版本或其他支持 CUDA 的框架,并确保 NVIDIA 显卡驱动正常运作。 #### 二、设置 SSH 访问权限 建立安全外壳 (SSH) 协议来访问远程主机是必不可少的第一步。通过配置无密码登录机制可以简化后续操作流程。具体做法是在本地计算机生成一对密钥对并将公钥复制到远端服务器相应用户的 `~/.ssh/authorized_keys` 文件内[^1]。 #### 三、同步项目至远程服务器 借助于 PyCharm 自带的功能或是第三方工具如 rsync 来保持本地仓库同线上实例之间的数据一致性非常重要。这样不仅有助于减少网络传输量还能提高工作效率。当涉及到大型模型训练时尤为明显[^2]。 #### 四、添加远程 Python 解释器 进入 IDE 设置页面找到 Project Interpreter 选项卡点击右侧齿轮图标选择 Add 。此时会弹出一个新的窗口允许用户挑选不同的方式加载外部解析引擎;对于当前场景而言应该选取 “Remote Host” 类型接着按照提示输入 IP 地址、用户名等相关信息完成关联过程[^4]。 ```bash # 如果需要指定特定版本的Python解释器路径可以在命令行中查看可用列表 conda info --envs ``` #### 五、验证 Tensorflow 是否能够识别 GPU 设备 一旦上述准备工作全部就绪就可以编写一段简单的测试脚本来检验整个系统的连通性和兼容性状况了: ```python import tensorflow as tf print("Num GPUs Available: ", len(tf.config.experimental.list_physical_devices('GPU'))) ``` 如果一切正常的话这段代码将会输出所检测到的实际物理显卡数量证明已经成功启用了硬件加速功能[^5]。 #### 六、优化性能表现 考虑到多张图形处理器协同工作的可能性,在实际应用过程中可以通过调整环境变量的方式灵活控制参与运算的具体单元组合形式从而达到最佳效果: ```python os.environ["CUDA_VISIBLE_DEVICES"]="0,1" ``` 此段语句的作用在于仅让编号为0号位和1号位两张显卡参与到本次任务当中去[^3]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

彭祥.

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值