
集群化
文章平均质量分 83
深入kafka
准备方向:大数据开发
展开
-
Linux的Spark 环境部署
4.创建软连接 命令: ln -s /export/server/spark-3.5.3-bin-hadoop3 /export/server/spark。命令 scp -r /export/server/spark-3.5.3-bin-hadoop3 wtk1:/export/server/命令: ln -s /export/server/spark-3.5.3-bin-hadoop3 /export/server/spark。这就是spark的安装部署了。此时显示应用程序完成。原创 2024-10-14 19:54:51 · 1180 阅读 · 0 评论 -
Linux的HBASE数据库集群部署
命令: tar -zxvf /export/server/hbase-2.5.10-bin.tar.gz -C /export/server/ln -s /export/server/hbase-2.5.10 /export/server/hbase。命令: ln -s /export/server/hbase-2.5.10 /export/server/hbase。命令: cd /export/server/hbase-2.5.10/conf。命令: cd /export/server。原创 2024-10-14 19:05:55 · 1253 阅读 · 0 评论 -
Linux的hadoop集群部署
命令: wget https://mirrors.aliyun.com/apache/hadoop/common/hadoop-3.4.0/hadoop-3.4.0.tar.gz。五:修改配置文件hadoop-env.sh 命令: vi /export/server/hadoop-3.4.0/etc/hadoop/hadoop-env.sh。命令: ln -s /export/server/hadoop-3.4.0 /export/server/hadoop。原创 2024-10-12 21:42:12 · 1384 阅读 · 0 评论 -
Linux的kafka安装部署
5.复制文件到其他节点 命令: scp -r /export/server/kafka_2.12-3.8.0 wtk1:`pwd`/创建软连接 命令: ln -s /export/server/kafka_2.12-3.8.0 /export/server/kafka。命令: ln -s /export/server/kafka_2.12-3.8.0 /export/server/kafka。命令: cd /export/server/kafka_2.12-3.8.0/config。原创 2024-10-11 21:31:04 · 578 阅读 · 0 评论 -
Linux的zookeeper安装部署
命令(与第一个节点的软连接一样): ln -s /export/server/apache-zookeeper-3.5.9 /export//server/zookeeper。命令(我采用绝对路径): /export/server/apache-zookeeper-3.5.9-bin/bin/zkServer.sh start。命令: ln -s /export/server/apache-zookeeper-3.5.9 /export//server/zookeeper。原创 2024-10-11 20:35:57 · 1479 阅读 · 0 评论 -
Linux集群化软件安装,前置
一:在每台机子都执行 ssh-keygen -t rsa -b 4096 然后一路回车,直到退出(root权限执行)vim /etc/sysconfig/network-scripts/ifcfg-ens33 进入这个文件,操作请看我的文章。二:每台机子都执行(作用:让每台机子共享密码,切换就不再需要密码)8.关闭安全模块SELinux,防止后续出错(每台机子都执行)编辑文件: vi /etc/sysconfig/selinux。命令: vim /etc/hosts。2.配置各个主机IP地址。原创 2024-10-10 20:55:05 · 455 阅读 · 0 评论