让Hadoop跑在云端系列文章
让Hadoop跑在云端系列文章,介绍了如何整合虚拟化和Hadoop,让Hadoop集群跑在VPS虚拟主机上,通过云向用户提供存储和计算的服务。
现在硬件越来越便宜,一台非品牌服务器,2颗24核CPU,配48G内存,2T的硬盘,已经降到2万块人民币以下了。这种配置如果简单地放几个web应用,显然是奢侈的浪费。就算是用来实现单节点的hadoop,对计算资源浪费也是非常高的。对于这么高性能的计算机,如何有效利用计算资源,就成为成本控制的一项重要议题了。
通过虚拟化技术,我们可以将一台服务器,拆分成12台VPS,每台2核CPU,4G内存,40G硬盘,并且支持资源重新分配。多么伟大的技术啊!现在我们有了12个节点的hadoop集群, 让Hadoop跑在云端,让世界加速。
本文介绍了一种将Hadoop集群部署于云端的技术方案,通过虚拟化技术将高性能服务器拆分为多个VPS节点,构建出一个12节点的Hadoop集群。文章详细探讨了创建Hadoop母体虚拟机、克隆虚拟机以增加Hadoop节点的方法,以及Hive和ZooKeeper等组件的安装与使用。

1162

被折叠的 条评论
为什么被折叠?



