拷贝别人虚拟机到本地需要修改哪些

在CentOS系统中使用Docker安装Nginx时,遇到Error response from daemon错误,原因是系统拷贝后网络配置不正确。通过ping测试发现无法访问外网。参照网络教程,修改了DNS和网关配置,最终解决了问题,能够成功拉取Docker镜像。

今天的案例是一个centos 里docker安装nginx引发的一系列bug
由于我的centos是从别人那里拷贝来的,导致我在使用的时候出现一系列错误,最初docker里安装nginx一直报一个错误,
在这里插入图片描述
我以为是没有配置好docker里json文件的原因,于是就修改了镜像,换了很多镜像还是没有解决问题,一直报这个错误
Error response from daemon: Get https://registry-1.docker.io/v2/: net/http:。。。。
于是我心生一计,ping了百度,果然ping不通,于是我就安装网上的教程修改了一下本地的DNS,网关等配置,最后解决了这个问题。
我参考了这篇文章
https://www.cnblogs.com/wbl001/p/11147640.html
,修改了里边网关信息,然后在这里配置了和本地网关一样的配置
在这里插入图片描述
在这里插入图片描述
还有就是虚拟机里在这里插入图片描述
这个命令下进去的配置文件里的gateway 修改和本地一样的网关,然后保存退出重启服务,就可以ping通了,当然也能拉取了镜像
在这里插入图片描述
后续交流学习关注公众号,只为技术发烧
在这里插入图片描述

当你将他人的 Hadoop 磁盘(即包含 Hadoop 配置与数据的虚拟机磁盘)拷贝到自己的虚拟机上时,为了保证 Hadoop 正常运行,必须修改一系列与**本机环境相关**的配置项。以下是需要修改的关键文件及其内容。 --- ### **文件修改列表** #### 1. `$HADOOP_HOME/etc/hadoop/core-site.xml` 此文件定义了 HDFS 的默认文件系统名称和临时目录。 ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://hostname:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/tmp/hadoop-${user.name}</value> </property> </configuration> ``` ✅ **需修改项**: - `fs.defaultFS` 中的 `hostname` 必须指向你的 NameNode 主机名或 IP 地址。 - `hadoop.tmp.dir` 路径应确保目录存在且可读写,建议改为本地路径如 `/home/user/hadoop/tmp`。 --- #### 2. `$HADOOP_HOME/etc/hadoop/hdfs-site.xml` 定义 HDFS 的副本数、NameNode 和 DataNode 存储路径等。 ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:///path/to/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:///path/to/data</value> </property> </configuration> ``` ✅ **需修改项**: - `dfs.namenode.name.dir` 和 `dfs.datanode.data.dir` 必须指向当前系统中存在的路径,并赋予正确权限。 - 若为单节点测试,`dfs.replication` 建议设为 `1`。 --- #### 3. `$HADOOP_HOME/etc/hadoop/workers`(旧版本为 `slaves`) 列出所有 DataNode 节点的主机名。 ```text node1 node2 ``` ✅ **需修改项**: - 将其中的主机名替换为你当前虚拟机的主机名(可通过 `hostname` 命令查看)。 - 若仅单机运行,则只保留 `localhost` 或本机 hostname。 --- #### 4. `$HADOOP_HOME/etc/hadoop/hadoop-env.sh` 配置 Hadoop 运行环境变量。 ```bash export JAVA_HOME=/path/to/java export HADOOP_PID_DIR=/tmp/hadoop-pids ``` ✅ **需修改项**: - `JAVA_HOME` 必须指向你当前系统中 Java 安装路径(可用 `which java` 查找)。 - 确保 `HADOOP_PID_DIR` 指向一个可写目录。 --- #### 5. 主机名与网络配置(非文件但关键) ✅ **需同步项**: - 使用 `hostnamectl set-hostname your-hostname` 设置主机名与配置一致。 - 在 `/etc/hosts` 中添加映射: ```text 127.0.0.1 localhost your_ip your-hostname ``` 避免因 DNS 解析失败导致通信错误。 --- ### **操作后必要步骤** 1. 格式化 NameNode(首次迁移后执行): ```bash $HADOOP_HOME/bin/hdfs namenode -format ``` 2. 启动 Hadoop: ```bash $HADOOP_HOME/sbin/start-dfs.sh ``` 3. 检查进程是否正常: ```bash jps ``` 应看到 `NameNode`, `DataNode`, `SecondaryNameNode` 等。 --- ### **知识点(列出该问题涉及的核心知识点)** - **Hadoop 配置文件作用域**:`core-site.xml` 和 `hdfs-site.xml` 控制集群地址、路径与行为,必须适配本地环境。 - **主机名与网络绑定机制**:Hadoop 通过主机名通信,若 hosts 或 hostname 不匹配会导致连接拒绝。 - **数据与元数据路径权限管理**:`dfs.namenode.name.dir` 等目录需存在且属主正确,否则启动失败。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

凌晨里的无聊人

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值