
大数据
文章平均质量分 85
留点心意的博客
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
统计系统部署
一、 服务器准备 1. 192.168.1.23 2. 192.168.1.230 3. 192.168.1.248 4. 192.168.1.246 5. 192.168.1.232 二、 应用程序准备 1. Zookeeper3.4.6 负责管理namenode和master的ha(高可靠)切换 2. Hadoop2.4.1 负责存储日志 3. Spark1.3.1 负责统计原创 2017-08-18 12:12:53 · 319 阅读 · 0 评论 -
hadoop+spark+zookeeper
主机名 IP地址 安装的软件 运行的进程 Node10 192.168.18.23 jdk,hadoop,spark namenode,resourcemanager,zkfc Node20 192.168.18.230 jdk,hadoop,spark namenode,原创 2017-08-17 10:51:29 · 639 阅读 · 0 评论 -
Hadoop报错
报错一 指定hadoop临时目录--> hadoop.tmp.dir /usr/local/software/hadoop/tmp 备注:如没有配置hadoop.tmp.dir参数,此时系统默认的临时目录为:/tmp/hadoo-hadoop。而这个目录在每次重启后都会被干掉,必须重新执行format才行,否则会出错。原创 2017-08-21 15:18:10 · 489 阅读 · 0 评论