在一次hive语句进行行转列操作的时候,几千万的数据量发生了omm, GC overhead limit exceeded. 
去网上查找了一下,判断是自己给map端和reduce端的内存太小了,才导致的omm,所以增加map端和reduce端的内存就好了.直接在客户端设置一下.
hive> set mapreduce.map.memory.mb=2048;
hive> set mapreduce.reduce.memory.mb=2048;
再次执行,执行成功.
在处理大量数据时,Hive语句执行遇到GCOverheadLimitExceeded错误。通过调整map和reduce端内存设置至2048MB,成功解决了OOM问题。
在一次hive语句进行行转列操作的时候,几千万的数据量发生了omm, GC overhead limit exceeded. 
去网上查找了一下,判断是自己给map端和reduce端的内存太小了,才导致的omm,所以增加map端和reduce端的内存就好了.直接在客户端设置一下.
hive> set mapreduce.map.memory.mb=2048;
hive> set mapreduce.reduce.memory.mb=2048;
再次执行,执行成功.
2490
4439
5197
3568
1万+

被折叠的 条评论
为什么被折叠?