搭建Lambda架构日志分析流水线

搭建日志分析流水线

1 准备工作
(1)启动HDFS
a)启动所有的Zookeeper,在3个节点分别使用以下命令:

zkServer.sh start

b)启动HDFS,在master节点使用以下命令:

start-dfs.sh

c)启动Yarn,在master节点使用以下命令:

start-yarn.sh

d)检查进程是否全部启动,在3个节点分别使用以下命令:

jps

(2)启动和配置Kafka
a)启动kafka,在3个节点分别使用以下命令:

kafka-server-start.sh -daemon /usr/local/kafka/config/server.properties &

b)检查kafka是否启动成功,在3个节点分别使用以下命令:

jps

在这里插入图片描述c)创建lambda主题,在master执行以下命令:

kafka-topics.sh --create --zookeeper master:2181,slave1:2181,slave2:2181 --replication-factor 3 --partitions 3 --topic lambda

在这里插入图片描述d)查看主题是否创建成功,使用以下命令:

kafka-topics.sh --list --zookeeper master:2181,slave1:2181,slave2:2181

e)启动控制台消费者,查看lambda主题接收到的数据,在master使用以下命令:

kafka-console-consumer.sh --bootstrap-server master:9092,slave1:9092,slave2:9092 --topic lambda

在这里插入图片描述(3)生成网站访问日志:
a)启动Nginx,在master使用以下命令:

sudo systemctl start nginx

b)访问网页,使用以下网址:

http://master/shop.html

在这里插入图片描述
c)检查是否生成日志,在master使用以下命令:

sudo tail -F /var/log/nginx/access.log

在这里插入图片描述
(4)创建lambda目录存储项目文件,在master使用以下命令:

mkdir /home/hadoop/lambda

在这里插入图片描述(5)配置Spark依赖的第三方jar文件
a)上传mysql-connector-java-5.1.47.jar、spark-streaming-kafka-0-8_2.11-2.4.6.jar和spark-streaming-kafka-0-8-assembly_2.11-2.4.6.jar文件到/usr/local/spark/jars
如图:
在这里插入图片描述
(6)在MySQL创建lambda用户和lambda数据库,步骤如下:
a)查看MySQL管理员账号和密码,使用以下命令:

sudo cat /etc/mysql/debian.cnf

在这里插入图片描述
b)使用管理员账号和密码登录MySQL
在这里插入图片描述c)创建lambda用户,使用以下命令:

CREATE USER 'lambda'@'%' IDENTIFIED BY '123456';

在这里插入图片描述d)给lambda用户授权,使用以下命令:

GRANT ALL PRIVILEGES ON lambda.* TO 'lambda'@'%';
FLUSH PRIVILEGES;

在这里插入图片描述e)创建lambda数据库,使用以下

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

@Heartworm

你的鼓励就是我的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值