自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 解决MySQL服务无法自启动,但是每次开机需要手动开启的问题

打开服务后查看MySQL57属性内启动类型是自动,但每次电脑开机后服务都会是已停止状态,是因为 Windows服务管理器会对所有服务的状态进行管控,此时服务管理器会等待服务就绪,这个时间默认为60秒,但可能因为某些原因服务就绪所需时间会大于60秒,所以就可以设置一个更长的等待时间。3.右键Control点击新建“DWORD(32位)”,名字设置为:ServicesPipeTimeout,选择十进制 ,设置值为180000或者更高。4.点击确定,之后就可以重启电脑测试服务是否能够自动启动。

2025-12-02 16:45:58 311

原创 解决win11 “‘wmic’不是内部或外部命令,也不是可运行的程序或批处理文件”问题

有时候可能会遇到“wmic命令无法识别”的问题。会影响用户的效率,还可能引发一系列与系统命令执行相关的问题。以下是详细的排查和解决方法。在cmd黑窗口输入命令后出现系统提示:“'wmic' 不是内部或外部命令,也不是可运行的程序或批处理文件” 说明wmic在系统中无法识别。

2025-12-01 16:39:49 624

原创 MySQL存储引擎:MyISAM与InnoDB核心差异详解

MyISAM 是 “性能优先但牺牲可靠性” 的引擎,仅适用于简单纯读场景;InnoDB 是 “可靠性与性能兼顾” 的引擎,通过事务、行级锁、聚簇索引等设计,适配绝大多数生产环境的业务需求。当前 MySQL 版本(5.5+)默认使用 InnoDB,除非有特殊历史遗留场景,否则优先选择 InnoDB;若需优化 InnoDB 性能,可重点关注索引设计、事务隔离级别配置、锁机制优化等方向。

2025-11-27 19:59:02 681

原创 Spark Core、Spark SQL 数据读取方式及 Hive 数据来源解析

Hive 的数据来源本质是 “外部数据写入 HDFS(或兼容存储)+ Hive 元数据关联”,核心支持本地文件上传、关系型数据库批量导入两种场景,适配离线数仓的基础数据接入需求。Spark Core:分为并行化集合(本地测试)和外部存储读取(生产核心),基于 RDD 支持自定义解析,适配非结构化 / 半结构化数据。Spark SQL:专注结构化数据,新增 TSV 格式读取适配,内置自动解析和 SQL 支持,读取效率更高,适合数仓分析。Hive 数据来源。

2025-11-03 19:41:21 1201

原创 OceanBase 入门指南

其“多租户”特性让你能在一个大集群中,为不同业务创建逻辑上完全隔离的“小数据库”,高效利用资源,降低总拥有成本。当你的业务增长时,只需向OceanBase集群中添加新的普通服务器节点,它就能自动将数据和负载重新分布,性能近乎线性增长。它通过软件技术,将数据分散到多个廉价的服务器上,让它们协同工作,对外提供一个统一且强大的数据库服务。现在,你可以像连接任何MySQL数据库一样,连接到你刚启动的OceanBase实例。:使用标准的SQL语言进行交互,数据以表格形式存储,和我们熟知的MySQL用法类似。

2025-10-27 14:56:04 1263

原创 ZooKeeper选举算法:深入解析FastLeaderElection

ZooKeeper的FastLeaderElection算法通过巧妙地结合ZXID(数据新旧) 和SID(服务器权重) 这两个要素,并以过半机制作为安全保障,实现了一个高效、可靠且无中心化的领导者选举过程。它隐含了这样一个事实:任何被确认的Leader都必然包含了最新全部数据(因为最新的ZXID必须被过半的节点看到并认可)。:如果两个投票的ZXID相同(例如,集群刚启动时所有节点的ZXID都是0),则比较SID,SID较大的服务器胜出。拥有最大ZXID的服务器胜出,因为这代表了它拥有最新的数据状态。

2025-09-16 20:22:47 805

原创 HDFS纠删码技术:大幅提升存储效率的革命性方案

在实际应用中,通常采用混合策略:对热数据使用多副本以保证性能,对冷数据使用纠删码以节约成本,从而实现性能与效率的最佳平衡。HDFS纠删码(Erasure Coding, EC) 是Apache Hadoop HDFS提供的一种高级数据持久化存储方法,旨在替代传统的多副本复制策略,在保证相近数据可靠性的同时,显著降低存储开销。系统将原始数据文件分割成若干个数据块(如6个),然后通过特定的数学变换(如Reed-Solomon码)计算出若干个校验块(如3个)。:节省大量硬件成本,尤其适用于海量数据存储。

2025-09-16 19:29:44 659

原创 Hadoop中的Shuffle过程:MapReduce的数据枢纽

Shuffle过程作为MapReduce的"数据枢纽",其设计体现了分布式计算的精髓:通过数据本地化、并行处理和分级聚合等策略,在大规模数据环境下实现了高效可靠的数据交换。深入理解Shuffle机制,有助于优化MapReduce作业性能。掌握Shuffle的调优技巧,往往能让作业执行效率获得数倍提升。

2025-09-15 19:51:14 294

原创 多线程四种创建方式,必看!

继承Thread类:简单但灵活性差实现Runnable接口:推荐方式,避免单继承限制实现Callable接口:需要返回值时使用线程池:最企业级的做法,高效管理线程资源在实际开发中,推荐使用线程池结合Runnable或Callable的方式,既能获得灵活性,又能高效管理线程资源,提升程序性能。

2025-09-15 19:28:12 149

原创 JVM 五大核心组件解析

JVM(Java 虚拟机)是实现 Java 跨平台特性的核心,其内部由五大组件协同工作,共同完成字节码的加载、执行与资源管理。

2025-09-03 20:48:54 659

原创 Linux 系统中 inode 与 block 详解

在 Linux 文件系统中,inode 与 block 是支撑文件存储的两大核心组件,二者分工明确又紧密协作,共同保障文件数据的高效管理与访问。

2025-09-01 19:28:15 311

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除