- 博客(11)
- 资源 (17)
- 收藏
- 关注
原创 GO 问题:Build constraints exclude all the Go files in ‘D:/soft/go/src/syscall/js‘
Build constraints exclude all the Go files in 'D:/soft/go/src/syscall/js')
2022-05-19 11:50:33
7212
转载 MyCat 简介
转自:https://blog.youkuaiyun.com/wrs120/article/details/80417345 1.什么是MyCat2.为什么使用MyCat3.支持的数据库4.架构5.分片 5.1垂直切片 5.2水平切片6.配置文件详解 6.1 rul...
2018-09-01 19:31:39
519
转载 Mycat从入门到放弃
转自:https://blog.youkuaiyun.com/u013235478/article/details/531786571.非分片字段查询Mycat中的路由结果是通过分片字段和分片方法来确定的。例如下图中的一个Mycat分库方案:根据 tt_waybill 表的 id 字段来进行分片分片方法为 id 值取 3 的模,根据模值确定在DB1,DB2,DB3中的某个分片如果查询...
2018-09-01 19:26:44
239
原创 SpringBoot logback + log4jdbc 显示查询结果
1、 增加下列jar 包<dependency> <groupId>com.googlecode.log4jdbc</groupId> <artifactId>log4jdbc</artifactId&am
2018-05-14 19:07:16
1716
转载 20个Java CompletableFuture的例子
转自:http://colobu.com/2018/03/12/20-Examples-of-Using-Java%E2%80%99s-CompletableFuture/ 在Java中异步编程,不一定非要使用rxJava, Java本身的库中的CompletableFuture可以很好的应对大部分的场景。原文: 20 Examples of Using Java’...
2018-03-19 14:34:19
1960
原创 docker 中 /var/lib/docker 目录占很多空间
docker 中 /var/lib/docker 目录占很多空间当docker 用一段时间后,发现 /var/lib/docker 占子服务器的大部分空间。在/var/lib/docker 用 du -sh * 命令查看一下,发现是aufs 和 containers 两个目录占了大部分空间 root@iZwz9j0rhuuld249sx2ja8Z:/var/lib/docker#...
2018-03-14 15:18:26
25900
1
转载 Spark中的checkpoint作用与用法
转自:http://blog.youkuaiyun.com/qq_20641565/article/details/76223002 checkpoint的意思就是建立检查点,类似于快照,例如在spark计算里面 计算流程DAG特别长,服务器需要将整个DAG计算完成得出结果,但是如果在这很长的计算流程中突然中间算出的数据丢失了,sp...
2018-03-13 09:32:57
263
转载 Broadcast功能
转自:https://www.kancloud.cn/kancloud/spark-internals/45238顾名思义,broadcast 就是将数据从一个节点发送到其他各个节点上去。这样的场景很多,比如 driver 上有一张表,其他节点上运行的 task 需要 lookup 这张表,那么 driver 可以先把这张表 copy 到这些节点,这样 task 就可以在本地查表了。如何实现一...
2018-03-09 11:03:53
6112
转载 理解Hadoop YARN架构
转自:http://blog.youkuaiyun.com/bingduanlbd/article/details/51880019 1. 介绍YARN(Yet Another Resource Negotiator)是一个通用的资源管理平台,可为各类计算框架提供资源的管理和调度。 其核心出...
2018-03-08 10:26:35
2084
转载 spark中算子详解:combineByKey
转自:http://blog.youkuaiyun.com/jiaotongqu6470/article/details/78458561 combineByKey是spark中更加底层,更加难理解,但却更灵活的一个算子这个算子需要传入三个函数第一个函数,是对每个分区的第一个值进行...
2018-03-07 11:46:02
355
转载 spark中算子详解:aggregateByKey
转自:http://blog.youkuaiyun.com/jiaotongqu6470/article/details/78457966 通过scala集合以并行化方式创建一个RDDscala> val pairRdd = sc.parallelize(List(("cat",2),(...
2018-03-07 11:38:28
314
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人