Yarn临时目录不足导致Hive任务失败

在尝试从现有Hive表创建新分区表时遇到问题,错误显示因本地磁盘空间不足导致MapReduce任务失败。通过`hdfs dfs -df -h`检查HDFS存储正常,但DataNode本地存储出现异常。问题定位在`/hadoop/yarn/local/usercache`目录,发现该目录占用空间过大。解决方法是修改`yarn.nodemanager.local-dirs`配置,将路径指向更大存储,并重启YARN集群。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

从一张已有的Hive Table中创建新表及Partition出现如下问题

  1. 原有Hive Table中有160g数据(为三个月中所有应用和服务器的用户访问记录)
  2. 新表选取需要字段,并按照应用/服务器Ip/访问时间创建Partition
  3. //创建table
    set hive.exec.dynamic.partition=true;
    set hive.exec.dynamic.partition.mode=nonstrict;
    
    CREATE TABLE IF NOT EXISTS app_trace(
          trace_id string,
          client_ip string,
          user_device string,
          user_id string,
          user_account string,
          org_id string,
          org_name string,
          org_path string,
          org_parent_id string,
          url string,
          completed boolean,
          cost int,
          create_time bigint,
          parameters map<string,string>,
          subtrace array<string>
    )
    PARTITIONED BY (app_id int,server_ip string,create_date string)
    ROW FORMAT DELIMITED
          FIELDS TERMINATED BY '\|'
          COLLECTION ITEMS TERMINATED BY '\$'
          MAP KEYS TERMINATED BY '\:'
    STORED AS SEQUENCEFILE
    
    //加载数据
    insert OVERWRITE table app_trace partition(app_id,server_ip,craete_date)
      select
          trace_id,
          client_ip,
          user_device,
          user_id,
          user_account,
          org_id,
          org_name,
          org_path,
          org_parent_id,
          url,
          completed,
         
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值