hadoop与hdfs随笔

本文介绍Hadoop生态圈中的关键组件,如Flume、Sqoop、Hive、Pig、Oozie、Zookeeper和HBase,并对比了Apache Hadoop、CDH和HDP的不同。同时,详细阐述了Hadoop伪分布式环境下的安装步骤,包括JDK安装、SSH配置、Hadoop下载与解压、配置文件修改、HDFS启动与验证。

hadoop生态常见组件:

1、flume:日志统一到hdfs处理;

2.  sqoop:关系型数据到hdfs相互转换;

3.  hive:hsql转换成mapreduce;

4.  pig:脚本转换成MapReduce;

5.  oozie:工作流管理;

6.  zookeeper:管理员,负责hbase等单点问题;

7.  hbase:基于bigtable的数据库

以上加上狭义的hadoop构成了hadoop生态圈,狭义的hadoop:

GFS-BIgTable-分布式计算 ==hdfs-hbase-mapreduce

 

hadoop生态圈选型:

1.apache hadoop:单个组件做的很好,但是存在不同版本兼容问题,不建议生产环境直接使用

2.CDH:Cloudera Distributed Hadoop  可以web化安装,解决了常见版本冲突,文档详细

3.HDP: Hortonworks Data Platform 操作比如说节点新增删除比cdh简单

hdfs设计目标:

1.巨大的分布式文件系统;

2.运行在普通的廉价机器上;

3.易扩展,为用户提供较高的容错性

Hadoop伪分布式安装步骤


1)jdk安装
    解压:tar -zxvf jdk-7u79-linux-x64.tar.gz -C ~/app
    添加到系统环境变量: ~/.bash_profile
        export JAVA_HOME=/home/hadoop/app/jdk1.7.0_79
        export PATH=$JAVA_HOME/bin:$PATH
    使得环境变量生效: source ~/.bash_profile
    验证java是否配置成功: java -v

2)安装ssh
    sudo yum install ssh
    ssh-keygen -t rsa
    cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys    

3)下载并解压hadoop
    下载:直接去cdh网站下载
    解压:tar -zxvf hadoop-2.6.0-cdh5.7.0.tar.gz -C ~/app

4)hadoop配置文件的修改(hadoop_home/etc/hadoop)
    hadoop-env.sh
        export JAVA_HOME=/home/hadoop/app/jdk1.7.0_79

    core-site.xml
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://hadoop000:8020</value>
        </property>

        <property>
            <name>hadoop.tmp.dir</name>
            <value>/home/hadoop/app/tmp</value>
        </property>

    hdfs-site.xml
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>

    slaves    

5)启动hdfs
    格式化文件系统(仅第一次执行即可,不要重复执行):hdfs/hadoop namenode -format
    启动hdfs: sbin/start-dfs.sh
    验证是否启动成功:
        jps
            DataNode
            SecondaryNameNode
            NameNode

        浏览器访问方式: http://hadoop000:50070

6)停止hdfs
    sbin/stop-dfs.sh 

Hadoop shell的基本使用
hdfs dfs
hadoop fs

问题:我们已经在hdfs-site.xml中设置了副本系数为1,为什么此时查询文件看到的3呢?
 如果你是通过hdfs shell的方式put的上去的那么,才采用默认的副本系数1
 如果我们是java api上传上去的,在本地我们并没有手工设置副本系数,所以否则采用的是hadoop自己的副本系数

 

 

根据原作 https://pan.quark.cn/s/459657bcfd45 的源码改编 Classic-ML-Methods-Algo 引言 建立这个项目,是为了梳理和总结传统机器学习(Machine Learning)方法(methods)或者算法(algo),和各位同仁相互学习交流. 现在的深度学习本质上来自于传统的神经网络模型,很大程度上是传统机器学习的延续,同时也在不少时候需要结合传统方法来实现. 任何机器学习方法基本的流程结构都是通用的;使用的评价方法也基本通用;使用的一些数学知识也是通用的. 本文在梳理传统机器学习方法算法的同时也会顺便补充这些流程,数学上的知识以供参考. 机器学习 机器学习是人工智能(Artificial Intelligence)的一个分支,也是实现人工智能最重要的手段.区别于传统的基于规则(rule-based)的算法,机器学习可以从数据中获取知识,从而实现规定的任务[Ian Goodfellow and Yoshua Bengio and Aaron Courville的Deep Learning].这些知识可以分为四种: 总结(summarization) 预测(prediction) 估计(estimation) 假想验证(hypothesis testing) 机器学习主要关心的是预测[Varian在Big Data : New Tricks for Econometrics],预测的可以是连续性的输出变量,分类,聚类或者物品之间的有趣关联. 机器学习分类 根据数据配置(setting,是否有标签,可以是连续的也可以是离散的)和任务目标,我们可以将机器学习方法分为四种: 无监督(unsupervised) 训练数据没有给定...
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值