
云计算
文章平均质量分 79
探索者tl
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Hadoop的安装和配置
1 下载程序包: http://hadoop.apache.org/releases.html 我们使用的是hadoop-2.7.1.tar.gz 2 安装hadoop (1) 将hadoop-2.7.1.tar.gz拖拽到ubuntu桌面 (2) mkdir /usr/local/hadoop #在/usr/local/中创建hadoop目录用来存放程序文件 (原创 2015-10-13 20:30:07 · 3584 阅读 · 0 评论 -
Spark的安装和配置
1 本文是在hadoop正确安装的前提的条件上进行的 Hadoop安装请参考:hadoop的安装和配置.docx 2 下载程序包 http://spark.apache.org/downloads.html 我们使用的是:spark-1.5.1-bin-hadoop2.6.tgz 3 安装spark (1) 将spark-1.5.1-bin-hadoop2.6.tgzpagz拖原创 2015-10-22 07:13:32 · 12970 阅读 · 1 评论 -
云时代新秀docker和现有技术的对照(笔记)
1 云计算平台的三层服务 1.1 Iaas(Infrastructure as a service,基础设施即服务) Iaas层为基础设施运维人员服务,提供计算、存储、网络及其他基础资源,云平台使用者可以在上面部署和运行包括操作系统和应用程序在内的任意软件,无需再为基础设施的管理而分心。 应用场景:虚拟机、存储、负载均衡、网络….. 缺点:只要以原创 2015-11-13 17:36:42 · 596 阅读 · 0 评论 -
运行示例sparkPi计算圆周率(1.1)
1 启动spark (1) 启动hadoop 启动成功master节点进程: Slave节点进程: (2) 启动spark(注意路径) 启动成功: Slave1和slave2的进程如下: 2 将sparkPi.scala添加进工程 3 Idea会自动读取src/org/apache/spark/examples下的scala文件原创 2015-11-01 09:56:02 · 3551 阅读 · 0 评论 -
1、运行spark示例工程前期准备SparkExampleWorkSpace(1)
1 打开idea 2 创建新的工程 3 建立scala工程(这里不选择sbt的原因,sbt需要连接网络) 输入工程名: 注意这里scala的版本,spark对scala的版本有要求 点击finish 修改项目的属性 在src下建立目录org/apache/spark/examples原创 2015-11-01 09:49:01 · 440 阅读 · 0 评论 -
安装HBase(使用hbase自带zookpeer)
1 前提条件 Java1.7 2 下载HBase l 官网地址:http://hbase.apache.org/ l 下载地址:http://mirrors.hust.edu.cn/apache/hbase/ l 下载版本:hbase-1.1.2-bin.tar.gz 3 安装HBase (一) 将原创 2016-01-28 16:02:39 · 6710 阅读 · 0 评论 -
Zookeeper的安装
Zookeeper的安装 1 前提条件 系统安装了Java6 2 Zookeeper的下载 官网地址:http://zookeeper.apache.org/releases.html 下载地址:http://apachemirror.ovidiudan.com/zookeeper/ 下载版本:zookeeper-3.4.6.tar.gz 3原创 2016-02-09 02:31:37 · 604 阅读 · 0 评论 -
Scala的安装
1 Scala的下载 http://www.scala-lang.org/ 我们使用的是scala-2.11.7.tgz 2 具体安装过程 (1) 将桌面的安装文件拖拽到Ubuntu桌面 (2) 在Ubuntu下/usr/local/下建立scala目录 (3) 将scala的安装文件拷贝到新建立的目录下 (4) 解压scala安装目录 (5)原创 2015-10-14 21:54:39 · 427 阅读 · 0 评论