Deploy_Cluster_CDH

1.卸载java:rpm -qa | grep java
  卸载: rpm -e --nodeps  查询出来的包名
2.配置ssh: cd  ~/.ssh/   
                  ssh-keygen -t rsa
                  cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys          
                  chmod 644 id_rsa.pub

6.修改主机名:  vi /etc/sysconfig/network     通过 重启网络服务生效。
7. 修改主机名和ip的对应关系vi /etc/hosts
2.java环境:rpm -ivh jdk-7u60-linux-x64.rpm
2.解压缩CM:tar -zxvf  cloudera-manager-el6-cm5.2.0_x86_64.tar.gz
3. 将安装包放到 cloudera/parcel-repo/下 mv CDH-5.2.0-1.cdh5.2.0.p0.36-el6.parcel* cloudera/parcel-repo/
                                                                    mv manifest.json cloudera/parcel-repo/        
4. 将连接mysql的jar放到指定目录下:cp  mysql-connector-java-5.1.16-bin.jar /opt/cm-5.2.0/share/cmf/lib/
10.agent的配置主节点的ip :vi  /opt/cm-5.2.0/etc/cloudera-scm-agent/config.ini      server_host:10.0.4.15
5.安装mysql yum   install  -y mysql-server mysql mysql-deve
  查看mysql的版本: rpm -qi mysql-server
  启动mysql: service mysqld start
   设置mysql开机启动:chkconfig mysqld on
    root账号设置密码为 root:mysqladmin -u root password 'root'
    查看端口:
netstat -ntpl |grep 3306
    进入mysql:mysql -uroot -proot
    配置文件所在地:vi /etc/my.cnf

11.在所有节点创建cloudera-scm用户:useradd --system --home=/opt/cm-5.2.0/run/cloudera-scm-server/ --no-create-home --shell=/bin/false --comment "Cloudera SCM User" cloudera-scm
9. 在主节点初始化CM5 的数据库:/opt/ cm -5.2.0/share/cmf/schema/scm_prepare_database. sh  mysql  cm  -hlocalhost -uroot -proot --scm-host localhost scm scm scm
6.mysql -uroot -pxxxx进入mysql命令行,创建以下数据库
#hive
create database hive DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
#activity monitor
create database amon DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
设置root授权访问以上所有的数据库:
#授权root用户在主节点拥有所有数据库的访问权限  grant all privileges on *.* to 'root'@' % ' identified by ' jDqzzb*u}8-C!0 ' with grant option;  
                                       grant all privileges on *.* to 'root'@'lewa1' identified by 'root' with grant option;  
                                      flush privileges;
grant all privileges on *.* to 'root'@'n1' identified by 'xxxx' with grant option;   flush privileges;



8.配置ssh
 [root@10 opt]# cm-5.2.0/share/cmf/schema/scm_prepare_database.sh mysql cm -hlocalhost -uroot -proot --scm-host localhost scm scm scm 
Verifying that we can write to /opt/cm-5.2.0/etc/cloudera-scm-server 
log4j:ERROR Could not find value for key log4j.appender.A 
log4j:ERROR Could not instantiate appender named "A". 
Creating SCM configuration file in /opt/cm-5.2.0/etc/cloudera-scm-server 
groups: cloudera-scm: No such user 
Executing: /home/h1/cloud/jdk1.7.0_51/bin/java -cp /usr/share/java/mysql-connector-java.jar:/usr/share/java/oracle-connector-java.jar:/opt/cm-5.2.0/share/cmf/schema/../lib/* com.cloudera.enterprise.dbutil.DbCommandExecutor /opt/cm-5.2.0/etc/cloudera-scm-server/db.properties com.cloudera.cmf.db. 
log4j:ERROR Could not find value for key log4j.appender.A 
log4j:ERROR Could not instantiate appender named "A". 
[2015-01-12 21:08:44,064] INFO 0[main] - com.cloudera.enterprise.dbutil.DbCommandExecutor.testDbConnection(DbCommandExecutor.java:237) - Successfully connected to database. 
All done, your SCM database is configured correctly!    谁知道这是成功了还是失败了呀

[root@lewa02 opt]# /opt/cm-5.2.0/share/cmf/schema/scm_prepare_database.sh mysql cm -hlocalhost -uroot -proot --scm-host localhost scm scm scm 
Verifying that we can write to /opt/cm-5.2.0/etc/cloudera-scm-server 
Creating SCM configuration file in /opt/cm-5.2.0/etc/cloudera-scm-server 
groups: cloudera-scm: No such user 
Executing: /usr/java/jdk1.7.0_60/bin/java -cp /usr/share/java/mysql-connector-java.jar:/usr/share/java/oracle-connector-java.jar:/opt/cm-5.2.0/share/cmf/schema/../lib/* com.cloudera.enterprise.dbutil.DbCommandExecutor /opt/cm-5.2.0/etc/cloudera-scm-server/db.properties com.cloudera.cmf.db. 
2015-01-15 13:43:01,210 [main] INFO com.cloudera.enterprise.dbutil.DbCommandExecutor - Successfully connected to database. 
All done, your SCM database is configured correctly! 
[root@lewa02 opt]#




10.关闭防火墙:service iptables stop         
                      chkconfig iptables --list  
                       chkconfig iptables off
11. 所有节点配置 NTP 服务: yum install ntp
           配置开机启动: chkconfig ntpd on
           检查是否设置成功: chkconfig --list ntpd 其中 2-5 on 状态就代表成功。
                 对时: ntpdate -u 65.55.56.206
          配置文件:vi 
/var/lib/ntp/drift
          启动服务:service ntpd start
          查看同步状态: ntpstat
server 
driftfile /var/lib/ntp/drift
restrict 127.0.0.1
restrict -6 ::1
restrict default nomodify notrap 
server 10.1.0.202 prefer
includefile /etc/ntp/crypto/pw
keys /etc/ntp/keys
agent
driftfile /var/lib/ntp/drift
restrict 127.0.0.1
restrict -6 ::1restrictdefault kod nomodify notrap nopeer noqueryrestrict -6 default kod nomodify notrap nopeer noquery
server 10.0.4.13
includefile /etc/ntp/crypto/pw
keys /etc/ntp/keys

2015013
16.清除之前启动的痕迹在agent:rm -rf /opt/CDH_HOME/cm-5.2.0/lib/cloudera-scm-agent/*
12. 启动服务端:/opt/cm-5.2.0/etc/init.d/cloudera-scm-server star t
13.启动Agent服务 :/opt/ cm-5.2.0/etc/init.d/cloudera-scm-agent start

14.查看相应的端口是否已经开启ps aux|grep 7181

15.hive的驱动安装 cp  /opt/ cm-5.2.0/share/cmf/lib/ mysql-connector-java-5.1.16-bin.jar   /opt/ cloudera /parcels/ CDH /lib/ hive /lib/


drwxr-xr-x. 8 h1 h1 4096 Sep 25 11:47 jdk1.7.0_51
drwxr-xr-x 8 root root 4096 Dec 19 2013 java

### 回答1: CDH(Cloudera's Distribution for Hadoop)是Cloudera公司针对Hadoop生态系统进行的一系列软件包和工具的集成,其中包括Hive on Spark的配置。 Hive是一个建立在Hadoop之上的数据仓库基础架构,它提供了类似于SQL的查询语言HiveQL,方便用户使用SQL语言对存储在Hadoop中的大型数据集进行查询和分析。Spark是一个快速、通用的数据处理引擎,具有内存计算的特性,能在内存中高效地处理大规模数据。 在CDH中配置Hive on Spark需要进行以下步骤: 1. 确保CDH集群已经正确安装和配置,并且已经启动了Hive服务和Spark服务。 2.CDH管理界面中,选择Hive服务,然后点击“配置”选项卡。 3. 在配置页面中,找到“Hive 服务”下的“Ancillary Service Configuration”部分。在“Spark”部分中,填写正确的Spark主节点地址和端口号。 4. 点击“保存并重启”以应用配置更改。 5.CDH管理界面中,选择Spark服务,然后点击“配置”选项卡。 6. 在配置页面中,找到“Spark 特定”的部分。在“Spark 实例模式”中选择“Standalone”,表示将使用独立的Spark集群。 7. 在“Spark 主节点地址”中填写正确的Spark主节点的地址。 8. 点击“保存并重启”以应用配置更改。 9. 配置完成后,可以使用HiveQL语句在Hive中使用Spark进行查询和分析数据。在Hive命令行或Hue界面中,编写需要的查询语句并执行。 通过以上步骤,就可以在CDH上成功配置Hive on Spark。这样就可以同时利用Hive和Spark的强大功能,实现对大规模数据的高效分析和处理。 ### 回答2: CDH配置Hive on Spark是指在CDH平台上配置使用Spark作为Hive的计算引擎。下面是具体的步骤: 1. 首先,确保已经在CDH平台上安装了Hive和Spark组件。 2. 在Hive的配置文件中,需要添加以下参数来启用Hive on Spark: hive.execution.engine = spark hive.spark.client.connect.timeout = 300s hive.spark.client.server.connect.timeout = 300s 3. 在Spark的配置文件中,需要增加以下参数来支持Hive on Spark: spark.master = yarn-client spark.deploy.mode = client spark.submit.deployMode = client spark.yarn.queue = default spark.executor.instances = 10 spark.executor.memory = 4G spark.executor.cores = 2 spark.driver.memory = 4G 4. 然后,重启Hive和Spark的服务。 5. 运行Hive脚本或者Hive命令时,可以在Hive中使用"hive.execution.engine=spark"设置为Spark引擎,或者在命令行中使用"--engine=spark"参数。 配置完成后,Hive会将相应的作业提交给Spark来执行,利用Spark的分布式计算能力加速Hive查询的执行速度。需要注意的是,配置Hive on Spark需要确保CDH平台中的Hive和Spark是兼容的,并且调整Spark的资源配置以满足计算需求。 总之,通过CDH配置Hive on Spark可以充分发挥Spark的并行处理能力,提高Hive查询的执行效率和性能。 ### 回答3: CDH是一种大数据解决方案,用于配置Hive on Spark的步骤如下: 1. 首先,确保已安装CDH集群并启动了Hive和Spark组件。如果还没有安装,请按照CDH文档进行安装和配置。 2. 检查Hive和Spark的版本兼容性。Hive on Spark需要Hive和Spark版本之间的兼容性,查看CDH文档以了解哪些版本适用于您的集群。 3. 在Hive配置文件中启用Hive的Spark支持。打开Hive配置文件(hive-site.xml),设置hive.execution.engine为spark。 4. 配置Spark属性。在Spark配置文件(spark-defaults.conf)中,设置spark.master为yarn-client或yarn-cluster,这取决于您的CDH集群配置。还可以通过设置其他属性来优化Spark执行引擎的性能。 5. 启动Hive服务。重启Hive服务以使配置更改生效。您可以使用以下命令重新启动Hive服务: sudo service hive-server2 restart 6. 测试Hive on Spark。使用Hive命令行或其他Hive客户端,运行一些Hive查询并确认它们是否在Spark上执行。 配置Hive on Spark可以提供更好的性能和资源利用率。而且,使用Spark作为执行引擎还可以充分利用Spark提供的丰富的数据处理功能和API。通过使用CDH的Hive on Spark配置,您可以更好地处理和分析大规模的数据集。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值