1. hls 列出目录所有内容:
2. 列出内容并排序, hls -r -t
3. hcat 查看文件内容
4. 上传文件:(把test.file上传到大数据目录下)
hadoop fs -put /home/xxxx/yong/test.file hdfs://xxx.xxx.xxx.xxx:8082/testdir/xxxx_file/xxxaccount
5. 获取文件:(把大数据目录下的文件test2.file下载到指定服务器目录下。)
6. 删除文件:
5. 获取文件:(把大数据目录下的文件test2.file下载到指定服务器目录下。)
hadoop fs -get home/xxxx/yong/ hdfs://xxx.xxx.xxx.xxx:8082/testdir/xx_file/test2.file
6. 删除文件:
hrm -skipTrash hdfs://192.168.xxx.xxx:8082/testdir/xx_file/xxx/xxx_xxx_20180110
hrm -r hdfs://192.168.xxx.xxx:8082/testdir/xx_file/xxx/xxx_xxx_20180110
7. 进入到spark
命令:spark-shell
ctrl+R 进行查找。
查询SQL语句:
val t = sqlContext.sql("select count(*) from parquet.`hdfs://192.168.XXX.XXX:8082/testdir/stats/data/Flow.parquet`")
t.show
7. 进入到spark
命令:spark-shell
ctrl+R 进行查找。
查询SQL语句:
val t = sqlContext.sql("select count(*) from parquet.`hdfs://192.168.XXX.XXX:8082/testdir/stats/data/Flow.parquet`")
t.show