大数据入门指南(GitHub开源项目)

项目GitHub地址:https://github.com/heibaiying/BigData-Notes

前 言

  1. 大数据技术栈思维导图
  2. 大数据常用软件安装指南

一、Hadoop

  1. 分布式文件存储系统——HDFS
  2. 分布式计算框架——MapReduce
  3. 集群资源管理器——YARN
  4. Hadoop单机伪集群环境搭建
  5. Hadoop集群环境搭建
  6. HDFS常用Shell命令
  7. HDFS Java API的使用
  8. 基于Zookeeper搭建Hadoop高可用集群

二、Hive

  1. Hive简介及核心概念
  2. Linux环境下Hive的安装部署
  3. Hive CLI和Beeline命令行的基本使用
  4. Hive 常用DDL操作
  5. Hive 分区表和分桶表
  6. Hive 视图和索引
  7. Hive常用DML操作
  8. Hive 数据查询详解

三、Spark

Spark Core :

  1. Spark简介
  2. Spark开发环境搭建
  3. 弹性式数据集RDD
  4. RDD常用算子详解
  5. Spark运行模式与作业提交
  6. Spark累加器与广播变量
  7. 基于Zookeeper搭建Spark高可用集群

Spark SQL :

  1. DateFrame 和 DataSet
  2. Structured API的基本使用
  3. Spark SQL外部数据源
  4. Spark SQL常用聚合函数
  5. Spark SQL JOIN 操作

Spark Streaming :

  1. Spark Streaming 简介
  2. Spark Streaming 基本操作
  3. Spark Streaming 整合 Flume
  4. Spark Streaming 整合 Kafka

四、Storm

  1. Storm和流处理简介
  2. Storm核心概念详解
  3. Storm单机环境搭建
  4. Storm集群环境搭建
  5. Storm编程模型详解
  6. Storm项目三种打包方式对比分析
  7. Storm集成Redis详解
  8. Storm集成HDFS/HBase
  9. Storm集成Kafka

五、Flink

TODO

六、HBase

  1. Hbase 简介
  2. HBase系统架构及数据结构
  3. HBase基本环境搭建(Standalone /pseudo-distributed mode)
  4. HBase集群环境搭建
  5. HBase常用Shell命令
  6. HBase Java API
  7. Hbase 过滤器详解
  8. HBase 协处理器详解
  9. HBase 容灾与备份
  10. HBase的SQL中间层——Phoenix
  11. Spring/Spring Boot 整合 Mybatis + Phoenix

七、Kafka

  1. Kafka 简介
  2. 基于Zookeeper搭建Kafka高可用集群
  3. Kafka 生产者详解
  4. Kafka 消费者详解
  5. 深入理解Kafka副本机制

八、Zookeeper

  1. Zookeeper 简介及核心概念
  2. Zookeeper单机环境和集群环境搭建
  3. Zookeeper常用Shell命令
  4. Zookeeper Java 客户端——Apache Curator
  5. Zookeeper ACL权限控制

九、Flume

  1. Flume简介及基本使用
  2. Linux环境下Flume的安装部署
  3. Flume整合Kafka

十、Sqoop

  1. Sqoop简介与安装
  2. Sqoop的基本使用

十一、Azkaban

  1. Azkaban简介
  2. Azkaban3.x 编译及部署
  3. Azkaban Flow 1.0 的使用
  4. Azkaban Flow 2.0 的使用

十二、Scala

  1. Scala简介及开发环境配置
  2. 基本数据类型和运算符
  3. 流程控制语句
  4. 数组——Array
  5. 集合类型综述
  6. 常用集合类型之——List & Set
  7. 常用集合类型之——Map & Tuple
  8. 类和对象
  9. 继承和特质
  10. 函数 & 闭包 & 柯里化
  11. 模式匹配
  12. 类型参数
  13. 隐式转换和隐式参数

十三、公共内容

  1. 大数据应用常用打包方式

后 记

转载于:https://blog.51cto.com/14183932/2410709

项目一Spark离线处理本项目来源于企业级电商网站的大数据统计分析平台,该平台以 Spark 框架为核心,对电商网站的日志进行离线和实时分析。 该大数据分析平台对电商网站的各种用户行为(访问行为、购物行为、广告点击行为等)进行分析,根据平台统计出来的数据,辅助公司中的 PM(产品经理)、数据分析师以及管理人员分析现有产品的情况,并根据用户行为分析结果持续改进产品的设计,以及调整公司的战略和业务。最终达到用大数据技术来帮助提升公司的业绩、营业额以及市场占有率的目标。 本项目使用了 Spark 技术生态栈中最常用的三个技术框架,Spark Core、Spark SQL 和 Spark Streaming,进行离线计算和实时计算业务模块的开发。实现了包括用户访问 session 分析、页面单跳转化率统计、热门商品离线统计、广告流量实时统计 4 个业务模块。通过合理的将实际业务模块进行技术整合与改造,该项目几乎完全涵盖了 Spark Core、Spark SQL 和 Spark Streaming 这三个技术框架中大部分的功能点、知识点,学员对于 Spark 技术框架的理解将会在本项目中得到很大的提高。 项目二Spark实时处理项目简介对于实时性要求高的应用,如用户即时详单查询,业务量监控等,需要应用实时处理架构项目场景对于实时要求高的应用、有对数据进行实时展示和查询需求时项目技术分别使用canal和kafka搭建各自针对业务数据库和用户行为数据的实时数据采集系统,使用SparkStreaming搭建高吞吐的数据实时处理模块,选用ES作为最终的实时数据处理结果的存储位置,并从中获取数据进行展示,进一步降低响应时间。 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值