Ubuntu18.04/16.04合理的磁盘分配方案

针对250G SSD和1T HDD的配置,本文提供了Ubuntu单系统安装的详细磁盘分区建议。推荐分区包括:根目录'/'(100G),交换分区'swap'(32G),临时文件夹'/tmp'(5G),引导分区'/boot'(2G)以及用户数据存储'/home'(使用剩余空间)。交换分区的大小依据物理内存设定,而'/home'分区预留充足空间以适应开发需求。

安装操作系统磁盘怎么分?

如果你准备在硬盘里只安装Ubuntu一个操作系统的话,建议你采用一个“/”、一个“swap”、一个“/tmp”、一个“/boot”和一个“/home”的五个分区方案:
我的设备一个250G的固态硬盘,一个1T的机械硬盘。"/“和”/home"留的大一些方便以后的开发。例如Anaconda虚拟环境创建的多了,会非常大。
/ :留的大一些。
swap:物理内存小于或等于 512MB,建议分配实际物理内存容量2倍大小的swap;物理内存大于512MB,建议分配与物理内存等容量的swap。
/home:/和swap以外的所有剩余空间。

磁盘容量
/100G
swap32G
/tmp5G
/boot2G
/home剩余空间
### 安装 Hadoop 3.3.5 在 Ubuntu 22.04/20.04/18.04/16.04 系统上安装 Hadoop 3.3.5,可按以下步骤操作: 1. **下载 Hadoop 3.3.5** ```bash wget https://archive.apache.org/dist/hadoop/common/hadoop-3.3.5/hadoop-3.3.5.tar.gz ``` 2. **解压文件** ```bash sudo tar -zxvf ./hadoop-3.3.5.tar.gz -C /usr/local ``` 3. **重命名文件夹** ```bash cd /usr/local/ sudo mv ./hadoop-3.3.5/ ./hadoop ``` 4. **修改权限** ```bash sudo chown -R hadoop:hadoop hadoop/ ``` ### 单机配置 单机模式是 Hadoop 的默认模式,无需额外配置即可运行。可以通过以下命令验证安装是否成功: ```bash cd /usr/local/hadoop ./bin/hadoop version ``` ### 伪分布式配置 #### 配置文件修改 1. **修改 `core-site.xml`** ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 2. **修改 `hdfs-site.xml`** ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` 3. **修改 `mapred-site.xml`** ```xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` 4. **修改 `yarn-site.xml`** ```xml <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> </configuration> ``` #### 格式化 NameNode ```bash ./bin/hdfs namenode -format ``` #### 启动 Hadoop 服务 ```bash ./sbin/start-dfs.sh ./sbin/start-yarn.sh ``` #### 验证伪分布式配置 可以运行一个 MapReduce 作业来验证伪分布式配置是否成功: ```bash ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.5.jar grep input output 'dfs[a-z.]+' ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ZhiBing_Ding

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值