大数据与Hadoop:核心技术解析
1. Hadoop简介
Hadoop在过去三到四年里,已成为大数据领域的事实标准。它始于2006年,是Apache Nutch的一个子项目,引入了分布式文件系统和分布式计算(即MapReduce)这两个关键特性,在开源社区迅速流行起来。如今,基于Hadoop核心特性开发的新产品多达数千种,它已发展成一个包含150多个相关主要产品的庞大生态系统。可以说,Hadoop是推动大数据和分析行业发展的主要催化剂之一。
1.1 Hadoop的诞生
2006年,Hadoop的创造者Doug Cutting在雅虎工作,当时他参与了一个名为Nutch的开源项目,该项目涉及大规模网络爬虫的开发。网络爬虫本质上是一种能自动浏览和索引网页的软件,这需要对大量数据进行高效管理和计算。2006年1月底,Doug正式宣布Hadoop项目启动,最初的请求信息仍可在 https://issues.apache.org/jira/browse/INFRA - 700 上查看,第一行内容为“The Lucene PMC has voted to split part of Nutch into a new subproject named Hadoop”,至此,Hadoop诞生。
1.2 Hadoop的基本原理
Hadoop的基本原理是将一个任务分解成多个小部分,分配给多个小型机器处理,最后将各部分结果汇总得到最终结果。不过,在实际操作中,需要考虑多个技术问题:
Hadoop核心技术解析
超级会员免费看
订阅专栏 解锁全文
7310

被折叠的 条评论
为什么被折叠?



