hadoop上路记 - 安装Centos&JDK

本文详细介绍如何在两台PC上配置Hadoop环境,包括安装CentOS 6.8、配置网络连接、安装JDK 1.8等步骤。

用户行为分析的数据快到亿级,想起hadoop,There is a will ,there is a way, 说干就配置。

身边只有两台跑数据的PC,暂于用于测试够了。


1、安装Centos 于 vmware:


Centos 版本找了一下,已经更新到了7.X

保守期间安装了6.8,怕一些新版本出现兼容性问题,不是X86的机器,只能选择I386,否则安装不上。

http://mirrors.aliyun.com/centos/6.8/isos/i386/

下载一个网络安装版,按提示加载ISO

选择URL 输入网址 http://mirrors.aliyun.com/centos/6/os/i386/

程序会自己寻找image/install.img

其它的按提示选择一下,我安装了basic server,不需要桌面及其它安装包,以提高下载和安装速度。


2、配置网络

Cenos 6.8安装完成,需要配置网络,以便用Secure CRT 连接。

毕竟VMWARE没有安装在我本机,需要通过mstsc运程,如果不配置内网访问,不能容忍。


本地VMware虚拟机,网络模式为NAT,现在需要局域网其他电脑通过ssh连接这台VMware虚拟机

宿主机地址:192.168.1.110

VMware虚拟机地址:192.168.253.119



添加 “端口映射”,如图,映射物理机22到虚机22(ssh端口),注意22端口要通过防火墙的设置
另外,需要在Centos 上设置static IP,否则下次会变。

[root@localhost local]# vi /etc/sysconfig/network-scripts/ifcfg-eth0 

DEVICE="eth0"
#BOOTPROTO="dhcp"  原来的注释掉
BOOTPROTO="static"
HWADDR="00:0C:29:14:85:AA"
IPADDR=192.168.253.119
GATEWAY=192.168.253.2
NETMASK=255.255.255.0
DNS1=192.168.253.2
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
NM_CONTROLLED="yes"
ONBOOT="yes"
TYPE="Ethernet"
UUID="5f7e6c5d-4e21-4796-8865-a7f38a4c27a6"

配置完成重起网络服务

service network restart或/etc/init.d/network restart

在本机通过telnet 看一下110的端口是否映射成功,发现telnet不可用:


那就去控制面板中开启吧 : 程序和功能-》打开或关闭Windows功能


再次尝试,telnet 192.168.1.110 22 成功


      这样就可以在我本地进行对办公室角落那台机器操作了~~


3、安装JDK1.8

原来的自带JDK1.7 ,为了配置hadoop 删除原来的jdk

[root@localhost local]# rpm -qa |grep openjdk -i

将列出来的安装包全删除,-i 忽略大小写

yum remove java-1.6.0-openjdk-1.6.0.41-1.13.13.1.el6_8.i686
yum remove java-1.7.0-openjdk-1.7.0.131-2.6.9.0.el6_8.i686


下载官网的JDK

版本有linux X86  X64两种,前面我们安装的是i386,

这里自然需要选择linux X86 安装包 jdk-8u144-linux-i586.tar.gz


解压至 /usr/local下面,命名为jdk即可

[root@localhost local]# ls 
bin  games    jdk                          lib      sbin   src
etc  include  jdk-8u144-linux-i586.tar.gz  libexec  share

配置环境变量 vi  /etc/profile

在文档最后增加配置

#JAVA Environment
export JAVA_HOME=/usr/local/jdk
export JRE_HOME=/usr/local/jre
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

export CLASSPATH=$CLASSPATH:.:$JAVA_HOME/lib:$JRE_HOME/lib

配置完成后更新  source /etc/profile

修改系统默认的JDK

    update-alternatives --install /usr/bin/java java /usr/local/jdk/bin/java 300
    update-alternatives --install /usr/bin/javac javac /usr/local/jdk/bin/javac 300
    update-alternatives --install /usr/bin/jar jar /usr/local/jdk/bin/jar 300
    update-alternatives --config java
    update-alternatives --config javac

测试结果正常

[root@localhost local]# java -version
java version "1.8.0_144"
Java(TM) SE Runtime Environment (build 1.8.0_144-b01)
Java HotSpot(TM) Client VM (build 25.144-b01, mixed mode)


如果提示出现

/usr/local/jdk/bin/java: cannot execute binary file

很可能是JDK 64 与LINUX  32,或JDK 32 LINUX 64位引起。直接下载更新即可,上面配置不变。


说完了JDK的环境配置,顺便聊聊CentOS 7自带的数据库MariaDB的设置。

现在,RHEL 7/CentOS 7自带的数据库都不再是MySQL了,而是MariaDB.

MariaDB默认的存储引擎是Maria,不是MyISAM。Maria可以支持事务,但是默认情况下没有打开,因为事务支持对性能会有影响。

可以通过以下语句,转换为支持事务的Maria引擎。ALTER TABLE `tablename` ENGINE=MARIA TRANSACTIONAL=1;




CentOS - 6.10 - x86_64 - minimal系统上进行单节点Hadoop安装,可参考以下步骤: ### 准备工作 首先需要下载搭建所用到的软件和插件。 - VMware Workstation Pro16:创建虚拟机的工具,下载地址为http://www.opdown.com/soft/262811.html。 - CentOS - 7 - x86_64 - Minimal - 2009:ISO镜像,创建虚拟机时要用到,下载地址为https://www.centos.org/download/和https://developer.aliyun.com/mirror/ 。 - xshell7:使虚拟机操作更简单化,下载地址为http://www.j9p.com/down/531725.html和https://www.xshellcn.com/xiazai.html 。 - jdk - 8u171 - linux - x64.tar:虚拟机连接Xshell后要用到,下载地址为https://repo.huaweicloud.com/java/jdk/和https://mirrors.tuna.tsinghua.edu.cn/AdoptOpenJDK/jdk 。 - hadoop - 2.7.7.tar:Hadoop安装包,下载地址为https://archive.apache.org/dist/hadoop/common/和http://mirror.bit.edu.cn/apache/hadoop/common/ [^1]。 ### 安装与配置 1. **安装JDK**:将下载好的JDK压缩包上传到虚拟机,解压并配置环境变量。 2. **安装Hadoop**:把下载的Hadoop压缩包上传到虚拟机,解压Hadoop。例如解压hadoop - 2.8.5.tar.gz到/opt目录,命令如下: ```bash tar -zxvf hadoop - 2.8.5.tar.gz -C /opt ``` 然后进入etc/hadoop文件夹下修改配置文件: ```bash cd /opt/hadoop - 2.8.5/etc/hadoop/ ``` 这里的版本号可根据实际下载的Hadoop版本进行调整 [^3]。 3. **配置Hadoop**:在`etc/hadoop`目录下,需要修改多个配置文件,如`core-site.xml`、`hdfs - site.xml`等,以适应单节点的运行环境。 4. **格式化HDFS**:在Hadoop配置完成后,需要对HDFS进行格式化操作,使用如下命令: ```bash hdfs namenode -format ``` 5. **启动Hadoop**:格式化完成后,启动Hadoop服务,命令如下: ```bash start - all.sh ``` ### 验证安装 启动Hadoop后,可以通过访问Hadoop的Web界面(如NameNode的界面)来验证安装是否成功。同时,可以运行一些简单的Hadoop示例程序来进一步验证。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值