
大数据
王富贵儿、
砖家
展开
-
【hive】集群外访问hive所需开通的端口
【hive】集群外访问hive所需开通的端口原创 2022-03-23 11:24:26 · 4773 阅读 · 0 评论 -
【hdfs】在win10上使用python访问hdfs操作文件
1、环境安装:使用cmd安装hdfs环境,pip installhdfs2、访问hdfs:from hdfs.client import ClientHDFSHOST = "http://192.168.56.101:9870"client = Client(HDFSHOST)# 返回目录下的文件#print(client.list('/wm/'))# 创建目录#client.makedirs('/tmp')#print(client.list('/'))# 删除hdfs文件.原创 2022-03-21 17:50:52 · 2755 阅读 · 0 评论 -
通过hive元数据库查询每个表权限信息,每个用户权限信息
1、以表为单位,查询每个表具有什么权限select s.*,(select tbl_name from tbls where tbl_id=s.tbl_id) tbl_name,(select name from dbs where db_id=(select db_id from tbls where tbl_id=s.tbl_id)) db_name from (select principal_name,principal_type,tbl_id,string_agg(tbl_priv,',')原创 2022-03-21 11:22:43 · 5333 阅读 · 0 评论 -
hadoop3.0新建集群后访问hdfs报错拒绝连接
Call From master/192.168.56.101 to master:9000 failed on connection exception: java.net.ConnectException: 拒绝连接; For more details see: http://wiki.apache.org/hadoop/ConnectionRefuse原创 2022-03-18 16:55:00 · 1606 阅读 · 0 评论 -
使用spark查询hudi表
查询数据 初始化环境 source /opt/poc_client/bigdata_env source /opt/poc_client/Hudi/component_env 启动客户端 spark-shell --master yarn --driver-memory 20g --driver-cores 4 --executor-memory 12g --executor-cores 4 --num-executors 50 --conf spark.executor....原创 2022-03-16 15:22:53 · 1591 阅读 · 0 评论 -
根据时间删除hdfs文件
删除hdfs指定目录三天前的文件hadoop fs -rm -r /meteobasicbd/null/*$(date -d -3day +%Y%m%d%H)*原创 2022-03-14 16:38:21 · 2821 阅读 · 0 评论