- 博客(36)
- 资源 (3)
- 收藏
- 关注
转载 Flink 如何管理 Kafka 消费位点
Flink 如何管理 Kafka 消费位点原文:https://data-artisans.com/blog/how-apache-flink-manages-kafka-consumer-offsets作者:Fabian Hueske, Markos Sfikas译者:云邪(Jark)在本周的《Flink Friday Tip》中,我们将结合例子逐步讲解 Apache Flink 是如何与 Apache Kafka 协同工作并确保来自 Kafka topic 的消息以 exactly.
2021-03-25 16:14:46
220
1
转载 Flink 原理与实现:理解 Flink 中的计算资源
Flink 原理与实现:理解 Flink 中的计算资源本文所讨论的计算资源是指用来执行 Task 的资源,是一个逻辑概念。本文会介绍 Flink 计算资源相关的一些核心概念,如:Slot、SlotSharingGroup、CoLocationGroup、Chain等。并会着重讨论 Flink 如何对计算资源进行管理和隔离,如何将计算资源利用率最大化等等。理解 Flink 中的计算资源对于理解 Job 如何在集群中运行的有很大的帮助,也有利于我们更透彻地理解 Flink 原理,更快速地定位问题...
2021-03-25 16:11:53
267
原创 mac下redis cluster安装与配置
mac下redis cluster安装与配置1、安装brew install redis通过 Homebrew 安装,一般会安装到/usr/local/Cellar目录下,配置文件位于/usr/local/etc目录下,直接使用可通过如下命令,$ brew services start redis$ redis-cli$ brew services stop redis其中redis-cli会默认连接到6379端口上启动的服务,连接到指定端口,使用redis-c...
2021-01-31 21:39:29
467
转载 hbase开发,hbase表操作及其java api实现
]开发环境hadoop: hadoop-1.1.2hbase: hbase-0.94.11-securityeclipse:Juno Service Release 2配置Eclipse 通过 Eclipse 创建一个新 Java 工程,右击项目根目录,选择“Properties> Java Build Path> Library>
2015-06-01 20:04:50
845
转载 使用Storm实现实时大数据分析
使用Storm实现实时大数据分析博客分类: Storm 摘要:随着数据体积的越来越大,实时处理成为了许多机构需要面对的首要挑战。Shruthi Kumar和Siddharth Patankar在Dr.Dobb’s上结合了汽车超速监视,为我们演示了使用Storm进行实时大数据分析。优快云在此编译、整理。简单和明了,Storm让大数据分析变得轻松加
2015-05-27 18:01:35
407
转载 Hadoop中CombineFileInputFormat详解
在MR实践中,会有很多小文件,单个文件产生一个mapper,资源比较浪费,后续没有reduce逻辑的话,会产生很多小文件,文件数量暴涨,对后续的hive job产生影响。所以需要在mapper中将多个文件合成一个split作为输入,CombineFileInputFormat满足我们的需求。CombineFileInputFormat 原理(网上牛人总结):第一
2015-03-31 19:49:48
600
转载 Protobuf java基础
本文档为java编程人员使用protocol buffer提供了一个基本的介绍,通过一个简单的例程进行介绍。通过本文,你可以了解到如下信息:1、在一个.proto文件中定义一个信息格式.2、使用protoc命令进行编译,生成java代码.3、使用Java protocol buffer API进行读写操作.l 定义proto文件以一个地址薄为例,从
2015-03-30 14:18:21
412
转载 Hadoop中MapReduce多种join实现实例分析
Hadoop中MapReduce多种join实现实例分析 一、概述对于RDBMS中的join操作大伙一定非常熟悉,写sql的时候要十分注意细节,稍有差池就会耗时巨久造成很大的性能瓶颈,而在Hadoop中使用MapReduce框架进行join的操作时同样耗时,但是由于hadoop的分布式设计理念的特殊性,因此对于这种join操作同样也具备了一定的特殊性。本文主要对MapRedu
2015-03-23 20:10:15
708
转载 mapreduce优化
Data MiningMapReduce FeaturesCountersBuilt-in Counters这些counters你在Web UI中,或是job结束后在控制台生成的统计报告中都看得到,根据名字你也能猜到这些counter是什么意思。分为3个Group:Map-Reduce FramewordMap input records,Map ski
2015-03-20 20:22:50
573
转载 MapReduce TotalOrderPartitioner 全局排序
MapReduce TotalOrderPartitioner 全局排序我们知道Mapreduce框架在feed数据给reducer之前会对map output key排序,这种排序机制保证了每一个reducer局部有序,Hadoop 默认的partitioner是HashPartitioner,它依赖于output key的hashcode,使得相同key会去相同reducer,
2015-03-20 18:35:22
826
转载 Mapreduce-Partition分析
Mapreduce-Partition分析Partition所处的位置Partition位置Partition主要作用就是将map的结果发送到相应的reduce。这就对partition有两个要求:1)均衡负载,尽量的将工作均匀的分配给不同的reduce。2)效率,分配速度一定要快。Mapreduce提供的PartitionerMapreduce默认
2015-03-20 18:22:07
423
转载 MapReduce:详解Shuffle过程
Shuffle过程是MapReduce的核心,也被称为奇迹发生的地方。要想理解MapReduce, Shuffle是必须要了解的。我看过很多相关的资料,但每次看完都云里雾里的绕着,很难理清大致的逻辑,反而越搅越混。前段时间在做MapReduce job 性能调优的工作,需要深入代码研究MapReduce的运行机制,这才对Shuffle探了个究竟。考虑到之前我在看相关资料而看不懂时很恼火,所以在这里
2015-03-19 23:25:29
345
转载 Pig 调优实践经验总结
Pig 调优实践经验总结1. pig.maxCombinedSplitSize 和 pig.splitCombination在实际使用PIG处理数据时,会经常要处理大批量的小文件。在这种情况下,如果不对Pig脚本进行任何特别设置,默认情况下很有可能会遇到类似这样的“命名空间超过配额限制”的错误:org.apache.Hadoop.hdfs.protocol.NSQuot
2015-03-19 16:16:50
653
转载 如何在hadoop中控制map的个数
如何在hadoop中控制map的个数 hadooop提供了一个设置map个数的参数mapred.map.tasks,我们可以通过这个参数来控制map的个数。但是通过这种方式设置map的个数,并不是每次都有效的。原因是mapred.map.tasks只是一个hadoop的参考数值,最终map的个数,还取决于其他的因素。 为了方便介绍,先来看几个名词:bloc
2015-03-19 15:46:33
418
转载 数据倾斜
数据倾斜总结 在做Shuffle阶段的优化过程中,遇到了数据倾斜的问题,造成了对一些情况下优化效果不明显。主要是因为在Job完成后的所得到的Counters是整个Job的总和,优化是基于这些Counters得出的平均值,而由于数据倾斜的原因造成map处理数据量的差异过大,使得这些平均值能代表的价值降低。Hive的执行是分阶段的,map处理数据量的差异取决于上一个stage的redu
2015-01-27 11:27:01
582
转载 Python:使用threading模块实现多线程
综述Python这门解释性语言也有专门的线程模型,Python虚拟机使用GIL(Global Interpreter Lock,全局解释器锁)来互斥线程对共享资源的访问,但暂时无法利用多处理器的优势。在Python中我们主要是通过thread和 threading这两个模块来实现的,其中Python的threading模块是对thread做了一些包装的,可以更加方便的被使用,所以我
2014-11-24 18:44:44
566
转载 深度分析如何在Hadoop中控制Map的数量
分类: Hadoop2012-04-09 17:29 9549人阅读 评论(2) 收藏 举报hadooppathinputstringapi文档目录(?)[+]深度分析如何在Hadoop中控制Map的数量guibin.beijing@gmail.com很多文档中描述,Mapper的数量在默认情况下不可直接控制干预,因为Mapp
2014-11-03 19:20:49
364
转载 PYTHON THREADING模块
PYTHON THREADING模块首先我们来看看threading包含那些属性和方法吧(官方文档在http://docs.python.org/library/threading.html)就我一直不太明白的几个点开始吧1. ConditionA factory function that returns a new condition variable obje
2014-09-24 15:01:20
421
转载 初学maven(5)-使用assembly plugin实现自定义打包
在上一篇文章中,讨论到在对maven的机制不熟悉的情况下,为了实现自己需要的打包格式而使用maven ant task以maven + ant的方式来实现非标准打包,而现在要介绍的是maven中针对打包任务而提供的标准插件:assembly plugin。 依然以上文(初学maven(4)-使用maven ant task实现非标准打包)的项目为例,要打包的程序如下:
2014-06-17 11:44:26
506
转载 初学maven(4)-使用maven ant task实现非标准打包
maven很强大,但是总有些事情干起来不是得心应手,没有使用ant时那种想怎么干就怎么干的流畅感。尤其当要打包一个特殊(相对maven的标准架构而且)时,常有不知所措的感觉。当然这个应该和自己对maven的了解不够有关,毕竟,“初学maven”嘛。 但是maven在依赖管理方面实在是太强大了,太喜欢,退回原来的ant方式完全不可能,我想用过maven的人,一般是不会有回到原来在cvs
2014-06-17 11:43:24
1495
转载 初学maven(3)-使用nexus替代artifactory作为maven私服
之前看到过一些Nexus的介绍,由于刚开始接触maven时使用的私服是artifactory,因此没有太在意。今天想着既然Nexus能有胆量出来混,应该有点真本事才是,看了一下nexus的安装介绍,挺简单的,试试无妨。因此装上小试了一下,结果喜出望外,nexus的表现非常不错,尤其是在开启远程索引之后,简直太方便了。 于是决定放弃artifactory改而使用nexus作为自己的ma
2014-06-17 11:42:04
1750
转载 初学maven(2)-maven/artifactory/m2eclipse安装全过程
前段时间研究过一下maven,中途因为工作忙搁置了一段时间,重新再看时发现安装过程基本忘光。只好找资料看然后再来一遍,将maven,artifactory和m2eclipse安装使用的全过程记录整理出来,备忘。另外我想这些资料应该比较适合maven的入门新手,照做一遍就可以完成三个东西的安装设置,然后就可以学习和使用了。一. 安装maven 安装官方标准的安装方式(http://
2014-06-17 11:40:45
537
转载 初学maven(1)-常见小问题集锦
初学maven(1)-常见小问题集锦上传者:hi_720 累计赚钱 6.074 元 我也要“分享赚钱”2013/2/9关注(243)评论(0)声明:此内容仅代表网友个人经验或观点,不代表本网站立场和观点。初学maven,遇到不少问题,记录下来,呵呵,依然是备忘兼共享。
2014-06-17 11:35:06
437
转载 【java】接口的作用|实例讲解java接口
接口作用:解决java不能多继承,用过接口变相实现多继承。屏蔽实现的不同的差异接口实例现在假如说,java想让oracle和mysql实现自己的数据源和关闭数据源,java只需要做一个接口interface出来。而oracle和mysql自己去实现这个接口即可。ok 下面先上一个组织结构,需要用到工厂模式。总共
2014-06-11 16:23:18
498
转载 客户端用java api 远程操作HDFS以及远程提交MR任务(源码和异常处理)
两个类,一个HDFS文件操作类,一个是wordcount 词数统计类,都是从网上看来的。上代码:[java] view plaincopypackage mapreduce; import java.io.IOException; import java.util.ArrayList; import java.util.Li
2013-12-05 15:16:47
1292
转载 Hadoop map reduce 过程获取环境变量
Hadoop map reduce 过程获取环境变量Hadoop任务执行过程中,在每一个map节点或者reduce节点能获取一下环境变量,利用这些变量可以为特殊的需求服务,例如:获取当前map节点处理的数据文件的路径。hadoop是java实现的,利用java可以很方便的获取相关环境变量,其内部包含在Context和MRJobConfig中(hadoop版本不一样,可能会有
2013-11-28 17:30:02
811
转载 python hadoop 在streaming中获取文件名的方法 (参考java )适用: MRjob
python hadoop 在streaming中获取文件名的方法 (参考java )适用: MRjob分类: python hadoop2013-11-06 11:46 207人阅读 评论(2) 收藏 举报hadoopmrjobpythonstreamingfilename在hadoop的开发中,经常要根据streaming中不同的文件名做不同的处理,需要获取文件
2013-11-27 19:05:11
846
转载 Hadoop Family Job Schedule----Azkaban
Hadoop Family Job Schedule----Azkaban分类: 云计算 多线程 HADOOP2013-09-04 14:43 59人阅读 评论(0) 收藏 举报Job Schedule 任务调度平台Hadoop工作流管理目录(?)[+]Hadoop Family JobSchedule----Azkaban1.1
2013-10-10 13:41:59
1073
转载 Azkaban2官方配置文档
Azkaban2官方配置文档分类: Azkaban 学习笔记2013-10-07 20:24 193人阅读 评论(0) 收藏 举报最近工作实在是太忙了,我把之前翻译的官方的文档先放上来吧,希望对大家有所帮助~介绍Azkaban2新功能:1、Web UI2、简单工作流上传3、更容易设置job的依赖关系4、调度工作流5
2013-10-10 13:31:04
1064
转载 MapReduce Join联结实现
一、背景早在8月份的时候,我就做了一些MR的Join查询,但是发现回北京之后,2个月不用,居然有点生疏,所以今天早上又花时间好好看了一下,顺便写下这个文档,以供以后查阅。二、环境JDK 1.6、Linux操作系统、hadoop0.20.2三、资料数据在做这个Join查询的时候,必然涉及数据,我这里设计了2张表,分别较data.txt和info.txt,字段之间以\t划分。d
2013-08-21 10:53:42
549
转载 Pig性能优化
1. 尽早去除无用的数据 MapReduce Job的很大一部分开销在于磁盘IO和数据的网络传输,如果能尽早的去除无用的数据,减少数据量,会提升Pig的性能。 1). 尽早的使用Filter 使用Filter可以去除数据中无用的行(Record),尽早的Filter掉无用的数据,可以减少数据量,提升Pig性能。 2). 尽早的使用Project(Foreach Ge
2013-08-16 17:35:18
570
转载 Python标准库(非常经典的各种模块介绍)
Python Standard Library翻译: Python 江湖群10/06/07 20:10:08 编译0.1. 关于本书0.2. 代码约定0.3. 关于例子0.4. 如何联系我们核心模块1.1. 介绍1.2. _ _builtin_ _ 模块1.3. exceptions 模块1.4. os 模块1.5. os.path 模块1.6.
2013-08-12 14:23:18
3795
转载 python编辑器对比和推荐
我先给一个初步的表格吧,大家如果有什么意见,或有补充,欢迎提出。有些我没有用过,先不写了。以下是我使用过的python IDE:除了PythonWin, VisualPython只支持Windows,其它都至少支持Win/Linux/Mac。各项含义:自动补全:变量/函数名打到一半时,提示可能的完整的变量/函数名。智能感知:在库/类/对象后打"."后,提示可能的函数
2013-08-12 13:42:20
778
原创 【pig】pig的vim高亮设置
1.到http://www.vim.org/scripts/script.php?script_id=2186下载pig.vim2. 拷贝pig.vim 安装目录/syntax/下 (如果不知道安装目录,可以用whereisvim来查找)3. 在vimrc文件里增加以下三行 (我们的系统都在/etc/vimrc下)augroup filetypedetect au
2013-08-12 12:04:16
866
转载 Linux下Apache 2.4.3安装和配置教程
作为最流行的Web服务器,Apache已经很久没有用重大更新来吸引用户的目光了。2012年8月16日,Apache终于进行了自2005年12月以来的首次重大更新,发布Apache HTTP Server 2.4.3。Apache 2.4提供了很多性能方面的提升,包括支持更大流量、更好地支持云计、利用更少的内存处理更多的并发等。除此之外,新版Apache的提升还包括性能提升、内存利用、异步I
2013-07-12 15:54:13
1142
转载 编译mysql出现CMake Error at cmake/readline.cmake:83
编译mysql出现CMake Error at cmake/readline.cmake:832012-05-01 11:09:01 | 812次阅读 | 评论:0 条 | itokit -- Could NOT find Curses (missing: CURSES_LIBRARY CURSES_INCLUDE_PATH),CMake Error at cmake/read
2013-07-12 12:55:23
1070
db2导入文本数据的方法
2010-12-22
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人