
linux
文章平均质量分 80
lhy66
这个作者很懒,什么都没留下…
展开
-
yum安装
首先 rpm -qa|grep yum 查看 yum 服务相关的包 # rpm -qa|grep yumyum-security-1.1.16-13.el5_4.1 yum-3.2.22-33.el5 yum-updatesd-0.9-2.el5 yum-metadata-parser-1.1.2-3.el5 # rpm -qa|grep yum|x原创 2013-01-12 18:23:13 · 652 阅读 · 0 评论 -
Hadoop集群内lzo的安装与配置
为了配合部门hadoop平台测试,作者详细的介绍了如何在Hadoop平台下安装lzo所需要软件包:gcc、ant、lzo、lzo编码/解码器并配置lzo的文件:core-site.xml、mapred-site.xml。希望对大家有所帮助。以下是正文:最近我们部门在测试云计算平台hadoop,我被lzo折腾了三四天,累了个够呛。在此总结一下,也给大家做个参考。操作系统:CentOS 5.5转载 2015-02-15 18:13:07 · 765 阅读 · 0 评论 -
Tomcat内存设置详解
Java内存溢出详解 一、常见的Java内存溢出有以下三种: 1. java.lang.OutOfMemoryError: Java heap space ----JVM Heap(堆)溢出JVM在启动的时候会自动设置JVM Heap的值,其初始空间(即-Xms)是物理内存的1/64,最大空间(-Xmx)不可超过物理内存。可以利用JVM提供的-Xmn -Xms -Xmx转载 2014-12-09 18:08:37 · 472 阅读 · 0 评论 -
搭建sqoop的eclipse调试环境
CDH源码地址http://archive.cloudera.com/cdh5/cdh/5/a、导入到sqoop到eclipse中:下载sqoop 1.3的tar包解压,我们打开build.xml,发现的target,我们只需要执行,ant eclipse,就可以ant脚本就可以给我们生成eclipse的工程文件,我们只需要在eclipse中导入即可。b、调试sqoop:由转载 2014-12-25 16:57:44 · 1061 阅读 · 0 评论 -
Tomcat 7.0.3x 启动慢并且遇到StackOverflowError的异常的解决办法
之前使用tomcat7时遇到启动报错问题,日志如下:Dec 09, 2014 5:25:04 PM org.apache.catalina.core.ContainerBase startInternalSEVERE: A child container failed during startjava.util.concurrent.ExecutionException: ja转载 2014-12-09 17:47:18 · 1558 阅读 · 0 评论 -
高低位字节序
什么是Big Endian和Little Endian?来源:http://blog.ednchina.com/qinyonglyz/194674/message.aspx1.故事的起源“endian”这个词出自《格列佛游记》。小人国的内战就源于吃鸡蛋时是究竟从大头(Big-Endian)敲开还是从小头(Little-Endian)敲开,由此曾发生过六次叛乱,其中一个皇帝送转载 2014-12-07 17:08:08 · 1293 阅读 · 0 评论 -
shell编程——if语句
if 条件then Commandelse Commandfi 别忘了这个结尾If语句忘了结尾fitest.sh: line 14: syntax error: unexpectedend of fi if的三种条件表达式ifcommand转载 2014-12-06 15:13:20 · 877 阅读 · 0 评论 -
Hive SQL优化之 Count Distinct
Hive是Hadoop的子项目,它提供了对数据的结构化管理和类SQL语言的查询功能。SQL的交互方式极大程度地降低了Hadoop生态环境中数据处理的门槛,用户不需要编写程序,通过SQL语句就可以对数据进行分析和处理。目前很多计算需求都可以由Hive来完成,极大程度地降低了开发成本。目前,Hive底层使用MapReduce作为实际计算框架,SQL的交互方式隐藏了大部分MapReduce的细节。这转载 2014-11-24 22:58:23 · 628 阅读 · 0 评论 -
hive优化之 控制hive任务中的map数和reduce数
一、 控制hive任务中的map数: 1. 通常情况下,作业会通过input的目录产生一个或者多个map任务。 主要的决定因素有: input的文件总个数,input的文件大小,集群设置的文件块大小(目前为128M, 可在hive中通过set dfs.block.size;命令查看到,该参数不能自定义修改);2. 举例: a) 假设input目录下有转载 2014-11-24 22:56:53 · 478 阅读 · 0 评论 -
ganglia收集hbase的metrics
Ganglia 是 UC Berkeley 发起的一个开源监视项目,设计用于测量数以千计的节点。每台计算机都运行一个收集和发送度量数据(如处理器速度、内存使用量等)的名为 gmond 的守护进程。它将从操作系统和指定主机中收集。接收所有度量数据的主机可以显示这些数据并且可以将这些数据的精简表单传递到层次结构中。正因为有这种层次结构模式,才使得 Ganglia 可以实现良好的扩展。gmond 带来的转载 2014-11-23 22:23:11 · 763 阅读 · 0 评论 -
hbase-indexer
This page explains how to start doing basic indexing in HBase. Before following this tutorial, make sure that the HBase Indexer and other required software is installed and running as explained in the转载 2014-11-23 23:07:00 · 1094 阅读 · 0 评论 -
Java Garbage Collection Monitoring and Analysis
In this Java garbage collection tutorial series let us look about the tools available for garbage collection monitoring and analysis. Then use a tool and monitor an example Java application for garbag转载 2014-11-23 22:32:48 · 900 阅读 · 0 评论 -
Apache Solr real-time live index updates at scale with Apache Hadoop
We talked about the new work that has gone into Apache Solr (upstream) that allows it to work on Apache Hadoop. Solr has support for writing and reading its index and transaction log files to the HDFS转载 2014-11-23 22:26:52 · 985 阅读 · 0 评论 -
ganglia安装
终于搞出来了,留个记录http://ganglia.info/http://www.ibm.com/developerworks/cn/linux/l-ganglia-nagios-1/http://sourceforge.net/apps/trac/ganglia/wiki/Ganglia%203.1.x%20Installation%20and%20Configuratio原创 2013-01-12 18:26:23 · 989 阅读 · 1 评论 -
MapReduce任务参数调优
本文主要记录Hadoop 2.x版本中MapReduce参数调优,不涉及Yarn的调优。Hadoop的默认配置文件(以cdh5.0.1为例):core-default.xmlhdfs-default.xmlmapred-default.xml说明:在hadoop2中有些参数名称过时了,例如原来的mapred.reduce.tasks改名为mapreduce.job.redu转载 2015-04-07 21:34:41 · 858 阅读 · 0 评论