数据获取和存储综合-----进行kafka,flume,和hive的数据综合处理实验

本文详细介绍了如何从零开始搭建大数据环境,包括SSH、MySQL、HDFS、YARN、Zookeeper等服务的启动,以及使用Hive创建表、Kafka创建topic、Flume进行数据流处理的全过程。

依次输入命令开启ssh服务、开启mysql、启动hdfs、启动yarm、启动Zookeepr

 输入hive进入hive

创建一张表,用来放数据:create table kafkatest(id int,name string,age int) clustered by(id) into 2 buckets stored as orc tblproperties('transactional'='true');

然后输入exit;退出hive

再重新启动一个终端,输入cd ~/bigdata/kafka_2.11-1.0.0 进入kafka目录下。

输入:nohup bin/kafka-server-start.sh config/server.properties >~/bigdata/kafka_2.11-1.0.0/logs/server.log 2>&1 &

后台启动kafka。

输入bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic kafkatest创建一个kafka的topic。

再启动一个终端,输入:cd ~/bigdata/apache-flume-1.9.0-bin

进入flume目录下,输入:bin/flume-ng agent --conf conf/ --conf-file conf/kafkatoh启动flume。

 回到kafka目录下的终端(第二个打开的终端),输入:bin/kafka-console-producer.sh --broker-list localhost:9092 --topic kafkatest启动kafka的consumer。

向启动好的kafka中输入1,a,3(1对应hive表中的id,a对应name,3对应age,可以进行适当更换)。发现flume的终端在执行任务。
最后启动一个新的终端,输入hive,输入select * from kafkatest;可以查看到刚才键入的数据。

输入exit;退出hive。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值