与Hadoop的第一次接触

本文记录了一位新手如何在服务器上安装配置Hadoop环境,并成功运行第一个WordCount程序的经历。包括服务器登录、文件上传、Hadoop服务启动及程序运行等关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

来台湾那之前,一直只接触过C。来台湾后,开始接触并行的内容,发现大家用JAVA,用Hadoop,觉得自己不懂的东西实在是多,特别着急,却在Hadoop面前始终无从下手。 

上周五跟老师meeting,老师让回去试着接触一下这些东西,瞬间压力倍增。


今天登陆实验室的服务器,总算是研究出来怎么用hadoop跑程序,对,不是写。。。


首先,登陆了服务器之后,进入到home目录下面,看看有哪些文件,其中如果已经有hadoop安装了,就可以再进入到hadoop文件中。

进入到home目录下面 指令ls可以看到目录下面全部的文件,找到hadoop文件夹。启动Haoop的服务。

<span style="font-family:Microsoft YaHei;font-size:12px;">cd /home</span>

<span style="font-family:Microsoft YaHei;font-size:12px;">hadoop/bin/start-all.sh</span>

我是在windows下登陆的实验室服务器,所以用的是MobaXterm登陆软件,它直接可以保存登陆信息,并且能够进行文件的传输以及文件夹的建立删除,我觉得还是比较方便的。

因此需要在服务器上建立一个文件夹来存放这次测试所需要的文件,我在hadoop文件下建立了一个test文件夹,并在test下还新建了一个input文件夹,同时将电脑上自己建立的file01.txt和file02.txt文件都上传到了input文件夹中。


做到这一步的时候,其实需要的文件都已经在服务器上了,但是文件都属于服务器的本地位置。想要对文件进行Hadoop的调用需要将文件保存在文件系统上面,因此要将这些本地文件上传到文件系统上。

与本地对应的就是需要现在文件系统上面建立文件夹来存放相对应的文件:

<span style="font-family:Microsoft YaHei;font-size:12px;">bin/hadoop fs -mkdir /home/hadoop/test/input</span>

建立了一个input文件夹来存放要操作的两个txt文件,接下来就是将两个文本文件上传到这个文件夹当中

<span style="font-family:Microsoft YaHei;font-size:12px;">bin/hadoop fs -put /home/hadoop/test/input/file* /home/hadoop/test/input</span>
就是将本地input文件夹下前缀是file的文件都上传到文件系统的input下,我这里由于两个路径名称是相同的,所以感觉一样,实际上可以建立不一样的路径和名称。


最后就是运行Hadoop了,我运行的是hadoop-examples-1.2.1.jar下的wordcount程序,因此代码如下:

<span style="font-family:Microsoft YaHei;font-size:12px;">hadoop jar /home/hadoop/hadoop-examples-1.2.1.jar wordcount /home/hadoop/test/input /home/hadoop/test/output</span>

前面hadoop jar是指令,接着是运行的jar文件的路径,运行程序名称以及输入和输出的两个路径。回车后程序就开始运行了。

最后运行完成后,我准备查看运行结果,就按照官网上面的指令输入了

<span style="font-family:Microsoft YaHei;font-size:12px;"> bin/hadoop -cat /home/hadoop/test/output/part-00000</span>
但是返回给我的是没有这个文件,于是用ls指令查看了一下文件夹的内容,发现文件夹里确实没有part-00000文件,而是一系列part-r-00000文件。这个应该是与程序内容有关,在输出时候放在对应不同的文件内。因此出现这样找不到文件路径的问题时候多用ls总是没有错的。


这也算是我与hadoop的第一次接触,虽然没有自己写代码,也没有弄明白mapreduce真正的含义,但是能够开始运行程序也是一点小进步吧!

为自己加个油!



标题基于SpringBoot+Vue的学生交流互助平台研究AI更换标题第1章引言介绍学生交流互助平台的研究背景、意义、现状、方法创新点。1.1研究背景意义分析学生交流互助平台在当前教育环境下的需求及其重要性。1.2国内外研究现状综述国内外在学生交流互助平台方面的研究进展实践应用。1.3研究方法创新点概述本研究采用的方法论、技术路线及预期的创新成果。第2章相关理论阐述SpringBootVue框架的理论基础及在学生交流互助平台中的应用。2.1SpringBoot框架概述介绍SpringBoot框架的核心思想、特点及优势。2.2Vue框架概述阐述Vue框架的基本原理、组件化开发思想及前端的交互机制。2.3SpringBootVue的整合应用探讨SpringBootVue在学生交流互助平台中的整合方式及优势。第3章平台需求分析深入分析学生交流互助平台的功能需求、非功能需求及用户体验要求。3.1功能需求分析详细阐述平台的各项功能需求,如用户管理、信息交流、互助学习等。3.2非功能需求分析对平台的性能、安全性、可扩展性等非功能需求进行分析。3.3用户体验要求从用户角度出发,提出平台在易用性、美观性等方面的要求。第4章平台设计实现具体描述学生交流互助平台的架构设计、功能实现及前后端交互细节。4.1平台架构设计给出平台的整体架构设计,包括前后端分离、微服务架构等思想的应用。4.2功能模块实现详细阐述各个功能模块的实现过程,如用户登录注册、信息发布查看、在线交流等。4.3前后端交互细节介绍前后端数据交互的方式、接口设计及数据传输过程中的安全问题。第5章平台测试优化对平台进行全面的测试,发现并解决潜在问题,同时进行优化以提高性能。5.1测试环境方案介绍测试环境的搭建及所采用的测试方案,包括单元测试、集成测试等。5.2测试结果分析对测试结果进行详细分析,找出问题的根源并
内容概要:本文详细介绍了一个基于灰狼优化算法(GWO)优化的卷积双向长短期记忆神经网络(CNN-BiLSTM)融合注意力机制的多变量多步时间序列预测项目。该项目旨在解决传统时序预测方法难以捕捉非线性、复杂时序依赖关系的问题,通过融合CNN的空间特征提取、BiLSTM的时序建模能力及注意力机制的动态权重调节能力,实现对多变量多步时间序列的精准预测。项目不仅涵盖了数据预处理、模型构建训练、性能评估,还包括了GUI界面的设计实现。此外,文章还讨论了模型的部署、应用领域及其未来改进方向。 适合人群:具备一定编程基础,特别是对深度学习、时间序列预测及优化算法有一定了解的研发人员和数据科学家。 使用场景及目标:①用于智能电网负荷预测、金融市场多资产价格预测、环境气象多参数预报、智能制造设备状态监测预测维护、交通流量预测智慧交通管理、医疗健康多指标预测等领域;②提升多变量多步时间序列预测精度,优化资源调度和风险管控;③实现自动化超参数优化,降低人工调参成本,提高模型训练效率;④增强模型对复杂时序数据特征的学习能力,促进智能决策支持应用。 阅读建议:此资源不仅提供了详细的代码实现和模型架构解析,还深入探讨了模型优化和实际应用中的挑战解决方案。因此,在学习过程中,建议结合理论实践,逐步理解各个模块的功能和实现细节,并尝试在自己的项目中应用这些技术和方法。同时,注意数据预处理的重要性,合理设置模型参数网络结构,控制多步预测误差传播,防范过拟合,规划计算资源训练时间,关注模型的可解释性和透明度,以及持续更新迭代模型,以适应数据分布的变化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值