ucloud服务器镜像迁移 整理

本文详细介绍如何在Ucloud上进行服务器迁移,包括创建镜像、迁移到新账号、从镜像创建主机及配置防火墙的过程。同时,指导更换服务器后的域名解析步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

公司服务器到期想换个账号重新配置,服务器进行镜像迁移。

镜像迁移还是比较好的 这样的话环境什么的都不用配置了重新解析下 ip就行。

 服务器供应商(Ucloud 网址:https://www.ucloud.cn/)

一、旧服务器创建镜像

  创建镜像步骤: (创建镜像的时候服务器必须关机

1.创建完镜像提交工单给服务商。

二、迁移到新的 Ucloud 新账号

1.和服务商售后技术联系。(提供新账号)

2.服务商迁移镜像到新的账号下面。

  1. 从镜像创建主机。(购买)
  2. 查看自己的新的服务器。

 

我们看下防火墙设置(主要是配置业务端口)

 

 

 

 

我们看下这个列表防火墙默认列表

  1. 非web服务器推荐
  2. Web服务器推荐

这两个端口不能进行修改和编辑。我们的业务需求肯定不只这些端口。因此我们自己创建一个防火墙设置端口,设置时候把默认的添加进来就行。

自己设置添加的端口下图:(根据业务需要配置端口就行)

 

三、域名解析

1.换了新服务器,ip地址肯定改变了 然后把我们新的IP地址解析到新的域名上面。

2.万网域名解析绑定。

 

 

 

 

 

 

 

 

 

 

 

 

 

### 如何在 UCloud 服务器上安装与运行 PyTorch #### 准备工作 为了成功部署和运行 PyTorch,在 UCloud 服务器上需要完成一系列准备工作。这包括操作系统环境的选择、CUDA 的支持以及必要的依赖项安装。 #### 安装基础工具 确保服务器已更新至最新状态并安装必要工具,例如 `dbus-x11` 和其他可能缺失的基础库。如果遇到任何启动失败的情况,可以尝试通过以下命令重新安装相关组件: ```bash sudo apt update && sudo apt upgrade -y sudo apt install dbus-x11 -y ``` 上述命令能够解决因缺少 `dbus-launch` 而引发的错误[^2]。 #### 配置 NVIDIA CUDA 支持 对于 GPU 加速的支持,需先确认目标机器是否具备可用的 NVIDIA 显卡,并按照官方指南下载适合版本的 CUDA Toolkit。针对 Ubuntu 20.04 用户,推荐采用 `.deb (local)` 文件形式进行安装。具体步骤如下: 1. 访问 [NVIDIA 官方网站](https://developer.nvidia.com/cuda-downloads),选择对应的操作系统版本(Ubuntu 20.04),架构类型 (`x86_64`) 和安装方式 (`DEB (Local)`)。 2. 执行下列脚本以完成驱动程序及开发套件的初始化过程: ```bash wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/cuda-ubuntu2004.pin sudo mv cuda-ubuntu2004.pin /etc/apt/preferences.d/cuda-repository-pin-600 sudo apt-key adv --fetch-keys https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/7fa2af80.pub sudo add-apt-repository "deb http://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/ /" sudo apt-get update sudo apt-get -y install cuda ``` 此部分操作基于先前提到的内容进行了扩展说明[^1]。 #### 安装 Python 环境及相关依赖 建议创建独立虚拟环境来管理项目所需的特定版本解释器及其附加模块。以下是实现方法之一: ```bash sudo apt install python3-pip python3-venv -y python3 -m venv pytorch_env source ./pytorch_env/bin/activate pip install torch torchvision torchaudio ``` 以上指令会自动拉取适配当前硬件条件的最佳构建选项。 #### 测试验证 进入交互模式或者编写简单脚本来检验框架加载状况: ```python import torch print(torch.__version__) if torch.cuda.is_available(): print('CUDA is available.') else: print('No CUDA support detected.') ``` 当显示有 CUDA 功能开启时,则表明整个流程执行无误。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值