- 博客(30)
- 收藏
- 关注
原创 Java----自动装箱和自动拆包 与 泛型
Java的泛型(如List<T>Map<K, V>)不支持,只能使用。允许基本类型值被自动转换为包装类对象,从而存入集合。
2025-05-26 21:09:56
421
原创 kafka----初步安装与配置
Kafka Broker 无法获取集群信息、无法选举控制器、无法感知其他节点,导致启动失败或集群不可用。Kafka 启动前需要先启动 ZooKeeper,新版本的kafka(2.8+)支持。相同,是以集群的形式使用。
2025-05-13 21:13:37
786
原创 Java----内部类 以及 调用关系
内部类: 定义方法及为普通方法的定义为了更好的保护内容,增强封装性继承类: 用extends实现类与类的继承为了继承并可以扩写父类内容。
2025-04-26 16:11:03
547
原创 Hadoop----高可用搭建
通过冗余设计 + 自动恢复机制,显著降低因单点故障导致的服务中断概率(如NameNode停机从小时级恢复缩短至分钟级),使系统具备“高持续服务能力”
2025-04-22 16:48:58
1733
原创 Java----oop基本特征(封装 继承 多态)
一个类(子类)使用另一个类(父类),子类继承父类的属性和方法,并且子类可以扩展或修改父类的功能。同一操作作用于不同的对象,可以有不同的实现方式。访问修饰符,修饰保护类的属性(变量)和方法。:通过方法重载(Overload)实现。:通过方法重写(Override)实现。继承,及同一个父类,可以有多个子类。提高代码安全性、可维护性###将变量(属性)和方法(行为),(一个子类只有一个直接父类)2. 子类也可以当父类,提高代码灵活性和扩展性。
2025-04-02 21:40:30
602
原创 zookeeper----leader的选举原理
每个leader的任期代号,对于某个节点,每经过一次leader的选举成功,+1。当节点发生宕机,失去与集群其他节点的通讯时,会请求选举,此时就有如下。,此节点与其他节点交流时,发现leader还存在,则放弃选举。:事务id,初始值为0,每完成一次读写操作,都会+1。当某个节点挂掉重启后,正好参与一次选举,那么它的。:每台服务器,每个节点的唯一标识,不可重复。的投票时,成为 Leader,状态变为。ZooKeeper 默认使用。的顺序,可知节点的启动顺序。(五个节点组成的集群)节点的投票的节点,当选。
2025-03-30 10:21:02
917
原创 zookeeper----初步了解与安装配置
使用 vi 命令进入后,找到dataDir一行,更改路径。再将压缩包解压到指定文件夹中(/opt/module/中)进入conf目录,将zoo_sample.cfg文件。在zookeeper-3.5.7目录下执行。进入下载好的zookeeper文件后。为:/tmp/zookeeper。新建一个文件夹 名为。服务器储存的数据副本都是。可以连接任意节点进行操作。
2025-03-24 17:41:25
449
原创 Hadoop---yarn的基础架构
负责人(AM)向区域配送站(NM)申请资源(内存、CPU)并租用外卖员(Container) ->相当于大脑,负责接收所有客户的订单(处理所有的请求)负责监控各个区域配送站(NodeManager)负责指派订单负责人(启动AppMaster)为 CPU、内存(ram)、磁盘)调动中心(RM)指派订单负责人(AM)而MapReduce等运算组件相当于。阐述Yarn内各个组件的作用。外卖(任务)被送达(完成),负责为运算程序提供。,相当于一个分布式的。客户下单(提交任务)
2025-03-22 16:42:57
475
原创 Hadoop---MapReduce主要的优缺点
对离线的,高吞吐量的数据处理**(例如:文件日志分析、数据清洗)**有着很高的效率。map()函数和reduce()函数。
2025-03-19 16:03:06
423
原创 Hadoop---HDFS读数据流程
所有数据块下载完成后,客户端将它们按顺序拼接成完整的文件(如。(一个支持分布式读取的数据流)逐个数据块的下载文件。
2025-03-18 21:34:21
984
原创 hadoop---HDFS写数据流程
客户端资讯NameNode,第一块存储在哪里,NameNode告诉客户端存储在哪几个DataNode。打招呼,通知NameNode,要在某个位置存入一个文件。要注意,存储的块是一块一块按序存储,不能一起进行。先 检查权限,检查客户端是否有权进行操作。最后 通知客户端,是否可以开始执行操作。后 检查文件,检查是否有所要写入的位置。客户端将上传的文件内容分成块。
2025-03-17 16:45:10
767
原创 Hadoop---HDFS的shell操作
Hadoop fs : 适用于所有Hadoop兼容的文件系统(本地系统,HDFS)(在Hadoop的根目录下创建了名为sanguo的文件夹)操作本地文件系统时,只有hadoop fs可以。例:hadoop fs -help rm。hdfs dfs : 仅适用于HDFS。关闭的命令为(start换成stop)hadoop fs:通用文件系统操作。hdfs dfs:专属HDFS操作。:文件的复制粘贴,仅适用于本机。:文件的复制粘贴,适用于机群间。hdfs dfs 具体命令。(明确“rm”命令的作用)
2025-03-12 15:58:57
265
原创 MySQL---以代码的形式创建数据表 主键外键区别
1️⃣先在创建好的MySQL中创建一个数据库2️⃣在新建的数据库中新建视图,进行编写use(使用/引用)create(创建) table(表)unsigned(无符号的) not null(不为空) comment(注释)primary key(主键)engine(储存引擎)= InnoDBdefault(默认的) charset(字符集)
2025-03-09 11:05:43
257
原创 MySQL---以代码形式创建、更改、删除数据库
default(默认的) character set (字符集)default(默认的) character set(字符集)不可以数字开头,内部不可有“空格”、“\”、等非法字符。create(创造) database(数据库)default(默认的) collate(核对)③点入启动的MySQL,新建视图,即可开始编写。alter(改变) database(数据库)drop(停止) database(数据库)show(显示)(注意显示的是数据库)数据库的名字是唯一的,不可更改。①先创建一个MySQL。
2025-03-08 18:28:53
223
原创 Java----位移符与scanner使用
注 : 负数移动时,最高位(符号位的下一位)会补1,但符号位仍然为1。例 : 当最高位为1时,左移1,此时符号位变成1,及变成负数。使用前先加import java.util.Scanner;③使用myscanner类,创建相关的变量。注:移动时,符号位也移动,最左边补“0”注 : 位移时,符号位会根据最高位改变。byte,long,short同理。②创建自己所用的Scanner类。“>>>”:无符号右移符。命名为myscanner。①声明Scanner类。
2025-03-08 10:57:39
214
原创 Hadoop----单节点搭建
①namenode (第一个计算机节点)和 secondary namenode(第二个计算机节点)②伪分布模式:单机运行(因此文件只有一份),但具备Hadoop集群的全部,(内容储存在HDFS中)③完全分布模式:机群操作(文件份数与机群的数量相关,5个机就有5份)(内容储存在HDFS中)①本地模式:单机运行,将Hadoop下载完成即可使用(内容储存在本机中)(然后开始编写机群搭建所需文件)不能配置在同一台虚拟机上。
2025-03-03 13:06:29
232
原创 Java----短路与 短路或 原码反码补码
短路与(&&) 当第一个判断条件为假时,直接忽视第二个判断,输出假(全真为真,一假为假,全假也假)短路或(‖) 当第一个判断为真时,直接忽视第二个判断,输出真(一真一假为真,全假为假,全真也假)(①9和2.0中,2.0的精度最大,因此把9转换为float类的9.0计算,计算出4.5。2️⃣负数的反码 = 除符号位(第一位)不变,其余取反(0=>1 ,1=>0)③变量为float类型,4为int类型,因此要变成float类型,变成4.0)③9和2均为int类型,直接计算,计算出4)
2025-03-02 11:11:08
319
原创 2月11日
3.写代码时,笔下功夫时间短,在脑中思考的时间比较长,导致无法合理安排精力,被消磨脑力与热情。2.因之前代码都是纸上写的缘故,导致有错误的编写语句无法及时纠正。没有放弃,即使耗费了较长的时间,也仍然把三子棋写出来了。加油,不要害怕未来,也不要过多思考未来,一步步往前走。学到了制作三子棋,并在视频的协助下完成了大致。1.因代码量的少,导致代码编写速度慢。第一次的博客,之前都是在做笔记。
2025-02-11 11:10:56
120
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅