- 博客(64)
- 资源 (1)
- 收藏
- 关注
原创 单点登录三:添加RBAC权限校验模型功能理解及实现demo
结合前面我写的两篇帖子,这里学习了一下RBAC模型,并且整理了一个demo,能够实现一个简单的无侵入的登录及权限控制方案。这里用到springSecruity、jwt、redis、mysql、threadLocal等技术
2023-05-24 17:12:52
1856
1
原创 单点登录二:登录过程使用摘要算法和加盐的意义以及demo练习
上一篇《springboot项目使用redis、springSecurity、jwt实现单点登录》写了关于单点登录的架子,但是没有实现密码验证的细节。这里使用盐和摘要算法来实现一个密码验证的完整过程demo。
2023-05-23 10:41:22
739
原创 单点登录一:springboot项目使用redis、springSecurity、jwt实现单点登录的demo
springboot项目使用redis、springSecurity、jwt实现单点登录,写一个最基础的demo。容易理解
2023-05-22 14:47:23
2286
原创 微服务之服务间通信:关于Feign的练习demo
重点:注意要调用别的服务的话,需要在自己服务里面创建一个接口类,这个接口类上面用@FeignClient注解,可配置的参数很多,但这我们重点关注必不可少的url(这个只是别名,在后面配置文件里面有具体值映射过来)看自定义配置那块:player下面的url就是agent类注解中的那个url,指向player服务(192.168.0.5是我的虚拟机)2、浏览器请求team服务那个conroller方法,发现链路全通了,过程中加点日志的话,可更直观看到player服务被调用的轨迹。
2023-05-16 17:23:20
598
原创 git及github常见名词解释
GitHub是一个基于Git版本控制系统的代码托管平台。它提供了Git仓库的远程托管服务,并附带了一系列的协作功能和工具,使开发者能够更方便地进行代码共享、版本控制和团队协作。通常解决一个Issue的流程如下:
2023-05-11 16:01:59
1195
原创 密码技术学习一:密码
本文通过学习《图解密码技术》总结了一下基础密码方面的知识,重点对对称密码和公钥密码及非对称密码做了讲解,介绍了常见的密码算法及概念如DES、AES、混合密码系统等
2022-12-06 21:08:02
845
原创 常用数据结构与java集合(基于1.8版本,个人诚意满满)
常见的队列、栈、数组、链表、hash表等在java语言中都有对应的体现,如Stack、ArrayList、HashMap、LinkedList、queue、deque、Hashset等结构的java实现源码学习
2022-10-28 19:33:22
969
原创 ES JAVA API Client 使用方法
Java Api Client 属于7.15后的新特性,用起来感觉比原来HighLevelRestClient要简化很多,而且更接近dsl语句。我这里是某个特殊场景要用,资料不太多,只能自己摸索出的一点JAVA API Client使用方法,用作启发,作一些常用的操作应该没啥问题。
2022-10-25 16:29:40
1635
原创 es数据防篡改方案通过_version和runtime fields特性来实现
es数据防篡改方案通过_version和runtime fields特性来实现,包括对_version和runtime fields的介绍
2022-10-12 16:32:03
1357
原创 es如何解决timeout超时30秒问题
es如何解决timeout超时30秒问题;30,000 milliseconds timeout on connection http-outgoing-0
2022-10-09 13:44:05
22137
原创 flume采集mysql日志数据发送到kafka
我这里需要采集mysql的日志如二进制日志、通用查询日志、慢查询日志、错误日志等,使用flume能很方便的将其采集到kafka的topic中,而且能解决其中有些日志充斥大量换行等符号所导致的清洗难题。通过自定义select查询语句去为mysql日志进行结构化改造,相对网上别的办法这样做比较便捷。我这里想要采集mysql日志所以需要第一步,若只是想采集mysql数据库表,就直接从第二步开始配就行了,首先mysql、flume、kafka安装我就略过了。...
2022-08-04 14:25:26
1545
原创 Kuboard创建工作负载
这块也是必不可少的配置,比如zookeeper我没配路由的话,新创建的kafka工作负载配置中连接zookeeper就连不上(曾踩过的坑)配置类我觉得推荐使用配置字典这里只需要添加一个ConfigMap就行,当然也可以添加挂载,将配置字典的数据也复制到容器内指定路径上。数据类就好比数据库类型中间件,可以将持久化存储的数据专门挂载到存储卷里将容器内路径和外部相对路径都填好。这里主要是一些策略配置,我主要用更新策略,喜欢用重新创建方式。我理解有两种数据挂载数据类、配置类。3.容器信息,添加工作容器。...
2022-07-22 15:12:55
1316
原创 代码大全2读书笔记【6-8章】
ADT:描述类的数据和操作(子程序)好处:能够隐藏实现细节和内部数据,降低耦合,增加可读性,方便维护(发现错误不用一个个地方修改,只用修改一处,就是这个方法)。类的接口应该展现一致的抽象层次根据类就大概能知道类的作用没有良好抽象的类,各类型混杂的方法职能不专一,会让程序越来越难以理解一定要理解类所实现的抽象是什么一些类很相似,需要理解类的接口需要的抽象是哪一个。可能使用的时候我们暂时都可以用,但是一定要仔细考虑。提供成对的服务创建子程序的时候,需要考虑是否需要创建与之互补的另一个操作。把不相关的
2022-06-23 14:35:34
887
原创 Mybatis的xml文件如何引入枚举类型
今写动态sql语句时,碰见在test标签中无法与枚举类型作比较的困惑。解决办法:使用@完整路径在@具体那个类型。就可以引入了<update id="createFatherTable" parameterType="com.jloong.demo.entity.MetaTable"> CREATE TABLE IF NOT EXISTS ${metaTable.tableName} ( <foreach collection="metaTable
2022-05-17 15:17:48
1021
原创 SSLHandshakeException: No appropriate protocol解决办法
No appropriate protocol (protocol is disabled or cipher suites are inappropriate)ERROR com.alibaba.druid.pool.DruidDataSource:2552 - create connection SQLException, url: jdbc:mysql://10.2.0.3:30306/koal_audit_5.2.0?useUnicode=true&characterEncoding=UTF-8
2022-05-12 12:07:22
1994
原创 MapReduce学习三:Shuffle
一、MapReduce详细工作流程Map阶段reduce阶段二、Shuffle机制流程图Map方法之后,Reduce方法之前的数据处理过程称之为Shuffle。2.1Partition分区分区指的是:将MapReduce统计的结果按照条件输出到不同的文件中。public int getPartition(K key,V value,int numReduceTasks){ return (key.hashCode()&Intger.MAX_.
2022-01-20 20:53:50
2266
原创 MapReduce学习二:切片机制
一、InputFormat数据输入1.1切片与MapTask并行度决定机制问题引出:MapTask的并行度决定Map阶段的任务处理并发度,进而影响到整个Job的处理速度。思考:MapTask是否越多越好?MapTask并非越多越好,需要根据数据量合理设置MapTask的数量,否则不但不会提高集群性能,反而适得其反。举例:1k数据,根本不需要多个MapTask,反而启动MapTask花费的时间比处理数据多的多。MapTask并行度决定机制数据块:...
2022-01-16 16:51:18
2447
原创 JDBC学习讲义以及连接池技术简介
一、JDBC概述1.1数据持久化持久化:把数据保存到可掉电式存储设备中以供之后使用。大多数情况下,数据持久化意味着将内存中的数据保存到硬盘上加以固化。而持久化的实现过程大多通过各种关系数据库来完成。 持久化的主要应用是将内存中的数据存储在关系型数据库中,当然也可以存储在磁盘文件、XML数据文件中。1.2Java中的数据存储技术在Java中,数据库存取技术可以分为如下几类:JDBC直接访问数据库。JDO(Java Data Object)技术。第三方O/R工具,如Hibernate
2022-01-11 19:30:05
489
原创 MapReduce学习一:概述及简单案例编写
一、概述1.1MapReduce定义MapReduce是一个分布式运算程序的编程框架,是用户开发“基于hadoop的数据分析应用”的核心框架。MapReduce的核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个Hadoop集群上。1.2MapReduce优缺点优点1.MapReduce易于编程它简单的实现一些接口,就可以完成一个分布式程序,这个分布式程序可以分布到大量廉价的PC机器上运行...
2022-01-08 19:49:10
1788
原创 面试高频算法题目
二叉树:NC45实现二叉树先序,中序和后序遍历public class Solution { /** * * @param root TreeNode类 the root of binary tree * @return int整型二维数组 */ public int[][] threeOrders (TreeNode root) { //三个集合,分别存储三种遍历结果 List<Integer>.
2022-01-06 11:33:49
224
原创 HDFS学习五:HDFS2.x新特性
1.集群间数据拷贝方法一:scp命令,这个在hadoop完全分布式运行模式一文中有介绍。方法二:采用distcp命令实现两个Hadoop集群之间的递归数据复制举例如下,将hello.txt文件从102集群拷贝到103,二者都是namenode所在节点主机名bin/hadoop distcp hdfs://hadoop102:9000/user/hello.txt hdfs://hadoop103:9000/user/hello.txt 2.小文件归档2.1HDFS存储小文件的弊端
2022-01-05 21:20:11
155
原创 HDFS学习四:DataNode的工作机制
1. DataNode的工作机制(1)一个数据块在DataNote上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。(2)DataNode启动后向NameNode注册,通过后,周期性(1小时)的向NameNode上报所有的块信息。(3)心跳是每3秒一次,心跳返回结果带有NameNode给该DataNode的命令如复制块数据到另一台机器,或删除某个数据块。如果超过10分钟没有收到某个DataNode的心跳,则认为该节点不可用。
2022-01-05 21:14:15
1264
原创 HDFS学习三:NameNode和SecondaryNameNode工作机制
一、NameNode和SecondaryNameNode1.1 NN与2NN的工作机制内存中存储元数据,可靠性怎么保证?为防止元数据丢失,会将元数据备份一份:磁盘中的备份元数据存储在FsImage。若是更新内存元数据同时更新Fsimage的话,效率太低,不更新的话,数据一致性怎么保证?内存中元数据更新机制:引入了Edit文件(只进行追加操作,效率很高)。每当元数据有更新或添加元数据时,修改内存中的元数据并追加到Edit中。这样,一旦NameNode节点断电,可以通过合并FsImage和E
2022-01-04 22:26:58
527
1
原创 HDFS学习一:简介及shell操作
一、简介1、HDFS背景及定义背景:由于数据量越来越大,一个操作系统存不下所有数据,而分开存储到多个操作系统的话,管理和维护又有诸多不便。迫切需要一种能管理多个机器文件的系统。于是就诞生了分布式文件管理系统。HDFS便是分布式文件管理系统中的一种。定义:HDFS(Hadoop Distributed File System) ,是一个用于存储文件的分布式系统,通过目录树来定位文件;由很多服务器联合起来实现功能,服务器具有各自的角色和功能。使用场景:适合一次写入,多次读出的场景,不
2021-12-31 18:22:37
821
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人