常用spark命令

本文介绍了如何在Yarn模式下启动Spark SQL,以及一系列与Spark SQL相关的操作,包括查看HDFS文件、打包jar文件、创建与管理数据库、表以及执行SQL操作。详细讲解了如何查看数据库、创建表(包括分区表)、显示表结构、修改表结构、操作表数据,以及数据导入导出等实用命令。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >



--spark启动

localhost$spark-sql --master yarn 启动主节点 yarn模式

--查看hdfs文件 

hdfs dfs -ls /spark/myDatabase.db 查看我们建的表 其实是是建立在hdfs里面

hdfs dfs -du -h /spark/myDatabase.db 查看我们的文件大小 也就是我们的表的大小 要接近最小的block大小 如64M或者128M -h 是以我们合适的单位去展示大小 可以根据目录du下去,知道文件 ,可以查看文件被分开了多少个小文件。

--打包
去到源码的class文件的顶级目录bin目录下 
jar cvf test.jat com 
意思是把bin下的com目录下全打包成test.jar包


---------------

spark-sql   //打开spark-sql窗口,可执行sql语句,例如查看hive数据库、表或执行建库、建表、select等sql操作
spark-shell //打开spark-shell窗口,可执行scala代码片段。

以下在spark-sql中执行
1、查看已有的database
show databases;


2、创建数据库
create database myDatabase;


3、登录数据库myDatabase;
use myDa

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值