大数据技术相关启动命令汇总ING...

本文汇总了大数据生态中关键组件的启动命令,包括Hadoop、Zookeeper、Hive、HBase、Storm和Kafka等,提供了从格式化HDFS到启动各服务的详细指令,是大数据运维和开发人员的实用指南。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录启动命令

  • 1. hadoop
  • 2. zookeeper
  • 3. hive
  • 4. hbase
  • 5. storm
  • 6. kafka

1.hadoop启动命令

格式化HDFS
    $ hdfs namenode -format
    $ hdfs namenode -format –clusterID itcast   ###clusterID必须与bi的相同  ferderation 
    
启动hdfs
    $ start-dfs.sh

单独启动hadoop中某个节点
    $ hadoop-daemon.sh start namenode

启动hadoop中所有节点
    $ hadoop-daemons.sh start datanode

2.zookeeper  启动命令

启动zookeeper集群
    $ cd /hadoop/zookeeper-3.4.5/bin/
    $ ./zkServer.sh start
    #查看状态:一个leader,两个follower
    $ ./zkServer.sh status

启动journalnode
    $ hadoop-daemon.sh start journalnode
    
单独启动yarn中resourcemanager
    $ yarn-daemon.sh start resourcemanager

 3 .hive 启动命令  

启动hive
    服务端  $ bin/hiveserver2 
    客户端  $ bin/beeline
            $ !connect jdbc:hive2://shizhan01:10000

本地数据导入hive
    $ load data local inpath '/home/hadoop/data.dat' into table table_name partition(datestr='2013-09-18')

创建一个表A,该表同表B的定义相同
    > create table tmp_page_views
    > like
    > ods_weblog_origin;

4 . hbase 启动命令

设置hbase双主命令(在某个节点可以是从节点)
    $ local-master-backup.sh start 2
    
动态添加hbase节点
    $ hbase-daemon.sh start regionserver

5. storm 启动命令    

启动storm:在nimbus.host所属的机器上启动 nimbus服务
    $ cd /export/servers/storm/bin/
    $ nohup ./storm nimbus 
启动storm:在其它个点击上启动supervisor服务
    $ cd /export/servers/storm/bin/
    $ nohup ./storm supervisor
启动storm:在nimbus.host所属的机器上启动ui服务
    $ cd /export/servers/storm/bin/
    $ nohup ./storm ui

测试storm命令
    $ bin/storm jar examples/storm-starter/storm-starter-topologies-0.9.5.jar storm.starter.WordCountTopology wordcount

6. kafka 启动命令    

各节点上启动kafka
    $ bin/kafka-server-start.sh  config/server.properties

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值