自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 深入探索 Java:从基础到实战

概念核心作用关键语法典型场景类与对象封装数据与行为构造方法、成员变量 / 方法数据模型(用户、订单)继承与多态代码复用、运行时行为差异化extendsabstract@Override插件系统、策略模式接口实现定义契约,支持多继承implements、默认方法事件监听、服务提供者封装与访问控制隐藏实现细节,保护数据privatepublicprotected安全敏感数据(账户余额)静态成员类级别的属性和方法static工具类(Math)、计数器内部类。

2025-06-29 02:14:21 790

原创 深入剖析 Spark:从基础到实战

在大数据处理领域,Spark凭借其高性能和易用性脱颖而出。它不仅能够处理海量数据,还支持多种计算模式,包括批处理、流处理和交互式查询。本文将深入解析Spark的核心概念、RDD操作、Spark SQL的使用,以及如何通过丰富的案例来掌握这门强大的技术。

2025-06-28 23:43:09 781

原创 基于Hadoop的MapReduce

Hadoop 仿若一位智慧 “指挥官”,将庞杂大数据拆解为诸多小块,巧妙分发至多个节点并行处理,让数据处理效率呈指数级跃升。其秉持 “分而治之” 策略,把数据存储与计算任务分摊至集群节点,化解单机处理压力,实现大规模数据高效运算。本文循大数据浪潮脉络,深挖 Hadoop 与 MapReduce 技术精髓,解锁平均数计算密码,从理论原理到实战代码,全方位拆解剖析。Hadoop 生态凭借分布式存储、计算优势,已然成为大数据处理 “中流砥柱”,MapReduce 模型高效并行处理特质,更是加速数据价值释放。

2024-12-08 21:36:43 1112

原创 基于Hadoop的MapReduce计算平均数

1]Hadoop的核心理念是将大数据分解为小块,然后在多个节点上进行并行处理,从而大大提高数据处理效率。MapReduce是Hadoop中的核心编程模型,它实现了一种高效的分布式计算方式。MapReduce将数据处理过程分为Map和Reduce两个阶段。Map阶段负责将输入数据分割成小块,并在每个小块上执行Map操作,将原始数据转换为中间结果。Reduce阶段则对这些中间结果进行合并,得到最终的处理结果。

2024-12-08 21:11:19 888

原创 数据可视化

Web开发是指创建和维护网站或网络应用程序的过程,涉及从前端用户界面到后端数据管理和逻辑处理的所有方面。Web开发是一个多领域交叉的活动,它融合了设计、编码、数据库管理、服务器配置等多种技能。而前端开发可视化技术是web开发的一部分内容,常用的前端开发可视化技术有ECharts、D3.js、Highcharts 等。(1)EChartsECharts 是一个由百度开源的 JavaScript 图表库,提供了丰富的图表类型,包括折线图、柱状图、饼图、地图、热力图等,并且支持自定义图表。

2024-12-06 14:19:52 1155

原创 多元线性回归模型

社会经济现象的变化往往受到多个因素的影响,因此,一般要进行,我们把包括两个或两个以上自变量的回归称为多元线性回归 [1]。多元线性回归的基本原理和基本计算过程与一元线性回归相同,但由于个数多,计算相当麻烦,一般在实际中应用时都要借助统计软件。这里只介绍多元线性回归的一些基本问题。

2024-10-31 23:44:56 1422

原创 pythons数据可视化分析

如果你想要用 Python 进行数据分析,就需要在项目初期开始进行探索性的数据分析,这样方便你对数据有一定的了解。其中最直观的就是采用数据可视化技术,这样,数据不仅一目了然,而且更容易被解读。常用的 10 种视图,这些视图包括:散点图、折线图、直方图、条形图、箱线图、饼图、热力图、蜘蛛图、二元变量分布和成对关系。散点图:散点图是以直角坐标系中各点的密集程度和变化趋势来表示两种现象间的相关关系,常用于显示和比较数值。当要在不考虑时间的情况下比较大量数据点时,使用散点图比较数据方便直观。

2024-06-23 23:33:21 1136

原创 MongoDB副本集、戵片综合应用(windows)

客户端程序(Client Application)通过驱动器(Driver)连接副本集主节点(Primary)进行读写操作,当主节点数据副本发生变化,此时副本节点(Secondary)通过Replication(复制)同步主节点的数据副本,使副本集中副本节点与主节点存储相同数据副本 副本集中的各节点还会通过传递心跳信息(Heartbeat)来检测各自的健康状态。

2024-04-28 21:35:58 784 1

原创 MongoDB基本操夯

MongoDB是属于NoSql的一种数据类型。MongoDB是一款强大、灵活、且易于扩展的通用型数据库MongoDB是一个基于分布式文件存储的数据库。由C++语言编写。旨再为WEB引用提供可扩展的高性能数据存储解决方案,将数据存储为一个文档(类似JSON对象),数据结构由键值(key=>value)对组成支持丰富的查询表达,可以设置任何属性的索引;支持副本集、分片它是一个介于关系数据库和非关系数据库之间的产品,是非关系数据库当中功能最丰富,最像关系数据库的。

2024-04-27 22:16:52 1779 1

原创 MongoDB分片部署(windows)

分片(Sharding)技术是开发人员用来提高数据存储和数据读写吞吐量常用的技术之一。简单的来说,分片主要是将数据进行划分后,将它们分别存放于不同机器上的过程。通过使用分片可以实现降低单个机器的压力和处理更大的数据负载功能。分片与副本集主要区别在于,分片是每个节点存储数据的不同片段,而副本集是每个节点存储数据的相同副本所有数据库都可以进行手动分片(),因此,分片并不是MongoDB特有的。

2024-04-24 21:53:46 2034

原创 MongoDB副本集部署(windows)

客户端程序(Client Application)通过驱动器(Driver)连接副本集主节点(Primary)进行读写操作,当主节点数据副本发生变化,此时副本节点(Secondary)通过Replication(复制)同步主节点的数据副本,使副本集中副本节点与主节点存储相同数据副本 副本集中的各节点还会通过传递心跳信息(Heartbeat)来检测各自的健康状态。

2024-04-22 18:22:17 2409

基于Hadoop的MapReduce计算平均数数据

基于Hadoop的MapReduce计算平均数数据

2024-12-08

数据可视化以柳州螺狮粉为列

数据可视化以柳州螺狮粉为列

2024-12-06

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除