- 博客(40)
- 收藏
- 关注
原创 kafka负载均衡迁移(通过kafka eagle)
命令:sh /usr/hdp/current/kafka-broker/bin/kafka-topics.sh --zookeeper hk-hdfs-util:2181 hk-hdfs-master01:2181 hk-hdfs-master02:2181 --topic。1 进入磁盘使用率高的机器/kafka-logs,通过du -h找一个数据量大的topic:这里以my_topic为例。4 将使用率多的机器中的副本修改为使用率少的kafkaid之后,把修改后的kafka分区文件放到。
2024-09-23 17:28:27
649
原创 hbase merge工具
1、当个region不宜过大,如果两个合并后超过当个region 的最大值,比如7G+7G=14G,超过region配置的最大值10G,这样的话哪怕合并了,也会重新分裂。在hbase中,表中可能会存在很多小的region,如果不需要那么多小的region,可以将他们就行合并。2、必须要相邻的两个region,才可以执行命令,不明白原理,不可随意修改代码。代码的逻辑是将相邻的两个小region进行合并,需要注意以下几点。
2024-09-20 10:25:12
468
原创 flink kafka sink (scala)
将对象数据通过Gson 转为jsonString,在将数据写到kafka中,这个可以根据需要修改,比如按照\t分开也行,可以节省字段名称的空间。那么如果需要减少Gson的创建,可以自定义map函数,继承并实现RichMapFunction中的方法,其中open就可以只创建一次Gson。这里还有一个问题,就是每来一条数据都需要new Gson 对象,有没有办法减少创建呢。我们知道job 和task之间是不能够传输序列化的对象的。
2024-09-19 13:37:48
733
1
原创 doris 自定义StreamLoad,批量写入doris
if (data.nonEmpty) dorisStreamLoad.sendData("doris中的表名,不需要传库名", gson.toJson(data))将对象放到list中,使用Gson,变为jsonString。
2024-09-19 11:50:26
703
原创 flink 批量写clickhouse
withBatchSize(20000).build(), //20s一批或20000条数据,那个先达到都执行sink。//还有其他字段接着set ps.setSTring(3, v.XXX!idea maven 依赖。
2024-09-19 11:33:43
666
原创 flink 例子(scala)
/env.setStateBackend(new RocksDBStateBackend(s"hdfs://${namenodeID}", true))//hdfs 作为状态后端。env.setStreamTimeCharacteristic(TimeCharacteristic.ProcessingTime) //处理时间。props.setProperty("bootstrap.servers", "host:6667")//有些是9092端口。//.id("自定义id,不加会自动生成")
2024-09-18 15:15:23
1006
原创 spark 写mongo
val updateList = new java.util.ArrayList[UpdateOneModel[Document]]() //用于批量写入。val mongoURL = s"mongodb://账号:密码@机器ip:27017"//builder.master("local[1]") 本地跑打开。
2024-09-18 14:34:23
684
原创 spark读mongodb
val mongoURL = s"mongodb://账号:密码@机器ip:27017"//builder.master("local[1]") 本地跑打开。idea maven依赖。
2024-09-18 14:29:04
841
原创 hbase ERROR: org.apache.hadoop.hbase.PleaseHoldException: Master is initializing
hbase Master is initializing
2024-06-17 18:23:25
248
原创 flink 提交程序报错No Executor found. Please make sure to export the HADOOP_CLASSPATH environment variable
【代码】flink 提交程序报错No Executor found. Please make sure to export the HADOOP_CLASSPATH environment variable。
2023-08-22 18:15:28
435
原创 flink 写hbase 报KeyValue size too large 异常
hbase 报KeyValue size too large 异常
2022-10-11 17:49:01
1172
原创 启动mongoDB时遇到了错误 Error connecting to 127.0.0.1:27017 :: caused by ::
Error connecting to 127.0.0.1:27017 :: caused by ::
2022-02-16 09:36:28
1521
原创 Static methods in interface require -target:jvm-1.8
IDEA编译报错:Static methods in interface require -target:jvm-1.8
2022-02-09 16:50:09
327
原创 flink kafka consumer (scala)自定义反序列化
flink source kafka consumer 自定义反序列化类 继承KafkaDeserializationSchema类
2022-01-25 13:33:20
2081
原创 关于Elasticsearch(es)中使用sql返回结果只有1000条
Elasticsearch(es)中使用sql返回结果只有1000条,想要返回更多的数据可以这样做
2022-01-20 15:38:40
2958
原创 es基于javaAPI实现put对max_result_window修改
elasticsearch java官方API通过put对max_result_window做修改
2022-01-20 15:17:50
2859
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人