利用租用的GPU进行训练

对于大模型的微调以及推理,对显卡的要求较高,我们就可以通过租一台来进行训练,这里我租用的是:AutoDL算力云 | 弹性、好用、省钱。租GPU就上AutoDL

推荐博客:新手小白如何租用GPU云服务器跑深度学习_gpu租用-优快云博客

这里有些步骤我就直接用上面博客的,没有必要再写一遍,并结合自己的实践进行补充。

下面展示如何用租用的GPU跑pycharm中的代码:

1.租用服务器:

这里提醒一下你如果跑大模型最低也得3090,这里我推荐如果就一般7b左右的用4090就够了。直接选基础镜像即可。

这里提醒一点,在训练前对于环境的部署我们为了省钱开启无卡模式:

往往配置好要正式启动时发现GPU被其他人占用了,我们就要点上面的保存镜像,这样租其他服务器时就不用重新配置环境了。

2.Pycharm专业版:我是学生认证从Jetbrains Toolbox中获取的。

3.建立远程SSH连接:

这一步就是把远程租用GPU解释器作为自己pycharm的解释器,具体步骤如下:

(1)找到实例:

(2)远程SSH连接:

这里我上次已经连接过了,具体可以参照上面的博客。现在就是把本地代码同步到租用的服务器上:

首先我们要知道执行流程:

用租的gpu跑代码的流程是pycharm会将你的代码上传到服务器上,然后用linux指令再去跑这段被上传过的代码

现在上传代码:

(3)终端:

选用远程租用的解释器

4.在终端中就可以运行代码了。

注意事项:

1.在配置环境,上传文件时推荐用无卡模式省钱

2.上传数据:

对于大型文件推荐用:FileZilla

在文件中打开站点管理器,建立新站点并命名

对于协议:SFTP

主机:

为登入指令@后面的部分

端口:@前面的数字

用户:root

密码:就是租用的密码

连接完成:

3.一些常用的功能:

在Pycharm中显示云服务器文件目录:

### 租用GPU进行深度学习模型训练的方法 租用GPU是一种高效的方式,能够帮助研究人员和开发者快速获得高性能计资源而无需购买昂贵的硬件设备。以下是几种常见的租用服务及其特点: #### 1. **云计平台** 许多主流云计提供商提供按需使用的GPU实例,这些实例可以根据需求灵活扩展或缩减规模。例如: - Amazon Web Services (AWS): AWS 提供多种基于NVIDIA GPU的EC2实例类型,如P系列、G系列等[^6]。用户可以选择适合其工作负载的具体配置。 - Google Cloud Platform (GCP): GCP 支持通过虚拟机附加多个Tesla T4, V100 或 A100 GPUs 来执行复杂的AI任务[^7]。 - Microsoft Azure: 此外还有Azure N-Series VMs 配备最新的RTX显卡支持CUDA 和 Tensor Cores 加速功能[^8]。 #### 2. **专用AI服务平台** 除了通用型云服务商之外还有一些专注于人工智能领域内的解决方案供应商它们往往提供了更加简便易用界面以及优化后的框架集成环境比如 Paperspace Gradient , FloydHub 等 。 这些工具通常内置流行DL库预安装版本使得新项目启动变得更快捷简单[^9]。 #### 3. **学术研究用途的选择** 对于学生或者科研人员来说还可以考虑申请免费试用额度或者是教育版折扣优惠计划像 NVIDIA DGX Station AI Supercomputer 就特别针对高校实验室推出租赁方案允许短期高强度运作业完成后再归还硬件资产而不必长期持有固定资产投资风险[^10]。 ```python import tensorflow as tf from tensorflow.keras.layers import Dense, Flatten, Conv2D from tensorflow.keras.models import Sequential # Example of setting up a model with multi-GPU support using TensorFlow's MirroredStrategy. strategy = tf.distribute.MirroredStrategy() with strategy.scope(): model = Sequential([ Conv2D(32, kernel_size=(3, 3), activation='relu', input_shape=(28, 28, 1)), Flatten(), Dense(128, activation='relu'), Dense(10, activation='softmax') ]) model.compile(optimizer=tf.keras.optimizers.Adam(), loss='sparse_categorical_crossentropy', metrics=['accuracy']) ``` 上述代码展示了如何利用TensorFlow中的`MirroredStrategy`轻松实现跨多张GPU分布式训练的效果[^11]。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值