Hadoop 1.2.1 eclipse plugin 编译 win7 集成

本文介绍如何在Windows 7环境下从源码编译Hadoop Eclipse插件,并解决连接问题。通过详细步骤,包括环境搭建、配置及编译过程,最终实现插件的成功集成。

关于Hadoop 编译 Eclipse 插件的过程,自己操作了一次,感觉里面还是有些小点需要说明一下的

插件可以生成,但WIN7 下怎么也连接不成功,强烈怀疑。不过这个插件在centos上使用相同版本的内容后可以连接成功!虽然开始的时候也报错,但可以看到HDFS文件系统内容。

环境

WIN7 64bit

Eclipse for Java EE 64bit内核版本 4.3.0 246M  http://mirrors.neusoft.edu.cn/eclipse/technology/epp/downloads/release/kepler/R/eclipse-jee-kepler-R-win32-x86_64.zip

Hadoop 1.2.1 下载源码完整版本,下载时注意文件名字和大小60.8M https://issues.apache.org/jira/secure/attachment/12425381/hadoop-0.20.1-eclipse-plugin.jar

JDK 1.7.0_25-b17 http://download.oracle.com/otn-pub/java/jdk/7u25-b17/jdk-7u25-windows-x64.exe

ANT 1.9.2 http://apache.fayea.com/apache-mirror//ant/binaries/apache-ant-1.9.2-bin.zip


JDK安装

.exe格式,一路下一步,注意修改安装路径C:\Java
安装后,我的电脑右键属性-》高级系统设置-》高级-》Path 中加入 ;C:\Java\jdk1.7.0_25\bin 注意前面的半角分号

ANT安装

解压至D盘根目录,注意解压后路径格式如下:D:\apache-ant-1.9.2
加入环境变量 ;D:\apache-ant-1.9.1\bin

Eclipse安装

解压至D盘根目录 E:\eclipse

Hadoop安装

解压至D盘根目录D:\hadoop-1.2.1

插件配置

官方文档位置:http://wiki.apache.org/hadoop/EclipsePlugIn
注意:在官方文档位置下有两个链接  JIRA MAPREDUCE-1262   JIRA MAPREDUCE-1280
这两个链接是官方提供好的Eclipse插件包,可以直接下载下来放置在E:\eclipse\plugins 目录下,重启Eclipse 后,可见

官方文字中提供了几点需要注意的地方
  • 编译插件过程需要使用hadoop类文件
  • 编译前需要在D:\hadoop-1.2.1\src\contrib\eclipse-plugin\build.properties中设置eclipse.home变量
  • 执行编译需要确认一个Hadoop版本信息

好的,按照注意点先编辑D:\hadoop-1.2.1\src\contrib\eclipse-plugin\build.properties 文件,加入eclipse.home和版本信息(版本变量名再未加入时ant编译会报错),编辑后如下

#   Licensed under the Apache License, Version 2.0 (the "License");
#   you may not use this file except in compliance with the License.
#   You may obtain a copy of the License at
#
#       http://www.apache.org/licenses/LICENSE-2.0
#
#   Unless required by applicable law or agreed to in writing, software
#   distributed under the License is distributed on an "AS IS" BASIS,
#   WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
#   See the License for the specific language governing permissions and
#   limitations under the License.


output.. = bin/
bin.includes = META-INF/,\
               plugin.xml,\
               resources/,\
               classes/,\
               classes/,\
               lib/
eclipse.home=D:\eclipse
version=1.2.1


接下来需要在文件中加入Hadoop类路径(按理说,这个不应该添加,在build文件中指向的类路径为build目录,当然前提是已经编译过Hadoop的源码,成功在./build目录中生成类文件,我们并没有编译源码,好吧直接饮用下载包中的内容)



不会ANT没关系,随便找个路径标签加进去,找到文件中eclipse-sdk-jars标签,修改成如下内容(第二个fileset就是新增的内容,可能复制代码有问题,注意一下。当然如果您熟悉ANT可以自己定义新的路径)

  <path id="eclipse-sdk-jars">
    <fileset dir="${eclipse.home}/plugins/">
      <include name="org.eclipse.ui*.jar"/>
      <include name="org.eclipse.jdt*.jar"/>
      <include name="org.eclipse.core*.jar"/>
      <include name="org.eclipse.equinox*.jar"/>
      <include name="org.eclipse.debug*.jar"/>
      <include name="org.eclipse.osgi*.jar"/>
      <include name="org.eclipse.swt*.jar"/>
      <include name="org.eclipse.jface*.jar"/>

      <include name="org.eclipse.team.cvs.ssh2*.jar"/>
      <include name="com.jcraft.jsch*.jar"/>
    </fileset>
	<!--build need hadoop classes file.-->
	<fileset dir="../../../">
		<include name="hadoop*.jar"/>
	</fileset>
  </path>

好了,差不多了。此时运行会报错,原因是这个文件中还需要拷贝两个文件到插件包中,和上面道理一样,由于我们没编译整个项目,所以需要修改,直接引用包中内容。


修改jar target(好多教程中,说最后执行 ant jar,实际上就是直接执行这部分,如果不加jar ,则执行project 标签 default 指向的target ,还好默认就是jar target) ,注释两个copy,新增两个copy,可以看到需要了两个jar,一个是hadoop-core-${version}.jar ,另一个是commons-cli-${commons-cli.version}.jar 。这两个包最后会自动打入到插件包中,可以从官网下载的文件中或自己编译的文件看到结果


<target name="jar" depends="compile" unless="skip.contrib">
    <mkdir dir="${build.dir}/lib"/>
    <!--
	<copy file="${hadoop.root}/build/hadoop-core-${version}.jar" tofile="${build.dir}/lib/hadoop-core.jar" verbose="true"/>
    <copy file="${hadoop.root}/build/ivy/lib/Hadoop/common/commons-cli-${commons-cli.version}.jar"  todir="${build.dir}/lib" verbose="true"/>
	-->
	 <copy file="${hadoop.root}/hadoop-core-${version}.jar" tofile="${build.dir}/lib/hadoop-core.jar" verbose="true"/>
    <copy file="${hadoop.root}/lib/commons-cli-${commons-cli.version}.jar"  todir="${build.dir}/lib" verbose="true"/>

    <jar
      jarfile="${build.dir}/hadoop-${name}-${version}.jar"
      manifest="${root}/META-INF/MANIFEST.MF">
      <fileset dir="${build.dir}" includes="classes/ lib/"/>
      <fileset dir="${root}" includes="resources/ plugin.xml"/>
    </jar>
  </target>

恩,该有的都有了,启动cmd 

切换目录至D:\hadoop-1.2.1\src\contrib\eclipse-plugin

执行 ant ,最后提示

BUILD SUCCESSFUL
Total time: 5 seconds

成功!


WIN+E 资源管理器,进入目录 D:\hadoop-1.2.1\build\contrib\eclipse-plugin ,看到文件 hadoop-eclipse-plugin-1.2.1.jar ,恩,我们自己的插件出来了


拷贝 hadoop-eclipse-plugin-1.2.1.jar 文件至 D:\eclipse\plugins 目录,确认安装吧


确认安装

启动Eclipse 后 Window->Open Perspective->Other ,弹出对话框列表中,会出现图标为蓝色大象,文字为Map/Reduce ,就在JPA下方


集成成功!


下载前可以先看下教程 https://pan.quark.cn/s/a426667488ae 标题“仿淘宝jquery图片左右切换带数字”揭示了这是一个关于运用jQuery技术完成的图片轮播机制,其特色在于具备淘宝在线平台普遍存在的图片切换表现,并且在整个切换环节中会展示当前图片的序列号。 此类功能一般应用于电子商务平台的产品呈现环节,使用户可以便捷地查看多张商品的照片。 说明中的“NULL”表示未提供进一步的信息,但我们可以借助标题来揣摩若干核心的技术要点。 在构建此类功能时,开发者通常会借助以下技术手段:1. **jQuery库**:jQuery是一个应用广泛的JavaScript框架,它简化了HTML文档的遍历、事件管理、动画效果以及Ajax通信。 在此项目中,jQuery将负责处理用户的点击动作(实现左右切换),并且制造流畅的过渡效果。 2. **图片轮播扩展工具**:开发者或许会采用现成的jQuery扩展,例如Slick、Bootstrap Carousel或个性化的轮播函数,以达成图片切换的功能。 这些扩展能够辅助迅速构建功能完善的轮播模块。 3. **即时数字呈现**:展示当前图片的序列号,这需要通过JavaScript或jQuery来追踪并调整。 每当图片切换时,相应的数字也会同步更新。 4. **CSS美化**:为了达成淘宝图片切换的视觉效果,可能需要设计特定的CSS样式,涵盖图片的排列方式、过渡效果、点状指示器等。 CSS3的动画和过渡特性(如`transition`和`animation`)在此过程中扮演关键角色。 5. **事件监测**:运用jQuery的`.on()`方法来监测用户的操作,比如点击左右控制按钮或自动按时间间隔切换。 根据用户的交互,触发相应的函数来执行...
垃圾实例分割数据集 一、基础信息 • 数据集名称:垃圾实例分割数据集 • 图片数量: 训练集:7,000张图片 验证集:426张图片 测试集:644张图片 • 训练集:7,000张图片 • 验证集:426张图片 • 测试集:644张图片 • 分类类别: 垃圾(Sampah) • 垃圾(Sampah) • 标注格式:YOLO格式,包含实例分割的多边形点坐标,适用于实例分割任务。 • 数据格式:图片文件 二、适用场景 • 智能垃圾检测系统开发:数据集支持实例分割任务,帮助构建能够自动识别和分割图像中垃圾区域的AI模型,适用于智能清洁机器人、自动垃圾桶等应用。 • 环境监控与管理:集成到监控系统中,用于实时检测公共区域的垃圾堆积,辅助环境清洁和治理决策。 • 计算机视觉研究:支持实例分割算法的研究和优化,特别是在垃圾识别领域,促进AI在环保方面的创新。 • 教育与实践:可用于高校或培训机构的AI课程,作为实例分割技术的实践数据集,帮助学生理解计算机视觉应用。 三、数据集优势 • 精确的实例分割标注:每个垃圾实例都使用详细的多边形点进行标注,确保分割边界准确,提升模型训练效果。 • 数据多样性:包含多种垃圾物品实例,覆盖不同场景,增强模型的泛化能力和鲁棒性。 • 格式兼容性强:YOLO标注格式易于与主流深度学习框架集成,如YOLO系列、PyTorch等,方便研究人员和开发者使用。 • 实际应用价值:直接针对现实世界的垃圾管理需求,为自动化环保解决方案提供可靠数据支持,具有重要的社会意义。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值