本来搭建了一个mapreduce集群,使用了hbase。
但需要将mapreduce分成两个,一个专门跑优先级高的任务,另一个专门跑优先级低的任务。
但因为hbase的原因,hdfs却不能分成两个,考虑配置hdfs的slaves配置文件conf/slaves,修改为conf/slaves_hdfs。
待测试。
本文介绍了一种在Hadoop环境中将MapReduce任务按优先级划分的方法,并探讨了如何通过配置HDFS的slaves文件来实现资源的有效分配。
本来搭建了一个mapreduce集群,使用了hbase。
但需要将mapreduce分成两个,一个专门跑优先级高的任务,另一个专门跑优先级低的任务。
但因为hbase的原因,hdfs却不能分成两个,考虑配置hdfs的slaves配置文件conf/slaves,修改为conf/slaves_hdfs。
待测试。

被折叠的 条评论
为什么被折叠?