在不同的系统中的virtualbox中安装Ubuntu SDK

对非常多的开发人员来说。你们可能使用的不是Ubuntu操作系统。在这样的情况下,开发人员须要在自己的操作系统中(OS X及Windows)安装virtualbox,并在VirtualBox中安装Ubuntu及Ubuntu SDK。

为了方便大家的安装,我们已经制定好了一个Image。这个Image中包括Ubuntu Utopic (14.10)及Ubuntu SDK。大家能够一次性地下载并安装SDK。以下介绍其安装步骤。

1)从https://www.virtualbox.org/wiki/Downloads下载最新的VirtualBox

Download VirtualBox


注意:当我们下载VirtualBox是,一定要依据自己的系统选择合适的版本号。


2)双击刚下载的VirtualBox文件,并安装它

3)下载Ubuntu virtual machine (最小的Ubuntu 14.10 desktop版本号及已经在里面安装好的Ubuntu SDK)

4)等下完后,双击已经下载的文件“ubuntu+sdk.ova”来导入到VirtualBox中,并执行它


注意:在整个安装过程中,须要用到的username及password是“ubuntu/ubuntu”

在安装完整个SDK后。我们能够參照文章“怎么在Virtualbox下安装Ubuntu OS”来设置自己的中文输入法及文件分享。能够參照文章“Ubuntu SDK 安装”来进一步安装自己的“armhf”及“i386” chroot。

整个安装chroot的过程可能须要一定的时间。须要耐心等待。等整个安装过程完毕了。我们就能够进行下一步的开发了。

### 安装 VirtualBoxUbuntu 为了在 VirtualBox 上运行 Ubuntu安装 Hadoop,首先需要确保已经成功安装VirtualBox。可以从官方网站获取最新版本的 VirtualBox[^1]。 对于 Ubuntu 用户来说,在终端执行命令 `sudo apt update` 后再通过软件中心或者命令行工具来安装 VirtualBox 是一种便捷的方式: ```bash sudo apt install virtualbox ``` 接着创建一个新的虚拟机并选择 Ubuntu 作为操作系统镜像文件启动新创建的虚拟环境。 ### 准备工作:SSH 免密登录设置 由于 Hadoop 的分布式特性,默认情况下它会在同一台机器的不同端口上模拟多节点集群模式。因此,即使是在单机环境下也需要配置 SSH 来实现无密码访问本地主机。这一步骤可以通过如下命令完成: ```bash sudo apt-get install ssh openssh-server ``` 之后按照提示操作生成公钥私钥对,并将其添加到授权列表中以便后续无需输入密码就能连接本机[^3]。 ### 下载与解压 Hadoop 前往 Apache Hadoop 的官方页面下载适合 Linux 系统的二进制包。这里假设选择了稳定版 tarball 文件进行下载。可以利用 wget 工具直接在网络环境中拉取资源: ```bash wget https://archive.apache.org/dist/hadoop/core/hadoop-3.3.0/hadoop-3.3.0.tar.gz tar -xzvf hadoop-3.3.0.tar.gz mv hadoop-3.3.0 /usr/local/ ln -s /usr/local/hadoop-3.3.0 /usr/local/hadoop ``` 上述指令完成了从网络抓取压缩包、释放其内容至指定目录以及建立软链接方便调用的过程[^4]。 ### 修改环境变量 为了让系统识别刚刚部署好的 Hadoop 可执行程序路径,编辑 `.bashrc` 或者 `/etc/profile.d/` 中的相关脚本来追加必要的 CLASSPATH 设置: ```bash echo 'export JAVA_HOME=/path/to/java' >> ~/.bashrc echo 'export HADOOP_INSTALL=/usr/local/hadoop' >> ~/.bashrc echo 'export PATH=$PATH:$HADOOP_INSTALL/bin' >> ~/.bashrc source ~/.bashrc ``` 请注意替换上面代码中的 `/path/to/java` 成实际 Java SDK 所处位置;而 `$HADOOP_INSTALL` 则指向之前设定好的 Hadoop 主目录[^4]。 ### 编辑核心配置文件 进入 Hadoop 解压后的 conf 目录下修改几个重要的 XML 配置文档,主要包括但不限于 core-site.xml, hdfs-site.xml 和 yarn-site.xml 。这些文件定义了诸如临时存储地址、默认副本数量等参数值。具体调整方式取决于个人需求和硬件条件限制[^5]。 #### Core-Site.xml 示例 ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` #### HDFS-Site.xml 示例 ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` #### Yarn-Site.xml 示例 ```xml <configuration> <!-- Site specific YARN configuration properties --> </configuration> ``` 以上仅提供了最基础框架供参考,更多高级选项可查阅官方文档进一步定制化[^5]。 ### 初始化 NameNode 并启动服务 一切准备就绪后就可以初始化 HDFS 文件系统并且开启所有必要组件了: ```bash /usr/local/hadoop/bin/hdfs namenode -format start-dfs.sh jps ``` 最后一条命令用于验证各个守护进程是否正常运作。如果看到 SecondaryNameNode、DataNode 和 NameNode 进程,则说明安装过程顺利完成[^5]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值