文章目录
1、前言
CDH5有自带kafka和spark的安装包,但是版本比较低,spark是1.6版本,如果想安装更高的版本,那么就需要自己手动从官网下载Parcel包,然后配置集成到CDH中。
下图中可以看到自带的Kafka后面又明确的说明,注意红色字体
Before adding this service, ensure that either the Kafka parcel is activated or the Kafka package is installed.
在添加这个服务前,确保kafka parcel是已经激活 or kafka package已经安装
2、添加CDK4.0
2.1 选择对应的版本
打开CDH官网
https://www.cloudera.com/products/open-source/apache-hadoop/key-cdh-components.html
拉到最下,点击DOCUMENTATION --> Apache Kafka
下载
el6,el7代表linux的版本,我的是7.2,所以下载el7的
2.2 配置Kafka Pacel下载源
[root@hadoop001 ~]# cd soft/kafka_parcels/
[root@hadoop001 kafka_parcels]# yum -y install httpd
[root@hadoop001 kafka_parcels]# ll
-rw-r--r-- 1 root root 85897902 Jun 20 15:50 KAFKA-4.0.0-1.4.0.0.p0.1-el7.parcel
-rw-r--r-- 1 root root 41 Jun 20 15:50 KAFKA-4