IDEA生成-Jar包

引言

       当完成一个Java项目后直接发送源代码给别人显然是不合适的,这时候就需要使用jar包了,在对方已安装JDK的前提下,对方可利用该jar包直接运行Java项目。当然也可以进一步将jar包封装成EXE应用程序,这时候即使对方未安装JDK也可以直接运行Java项目。

IDEA版本:2019.3.3 英文版

步骤

1.“File"—>"Project Structure"—>"Artifacts".进入图1所示界面。

图1

2.依次点击图1中的”+”—>"JAR"—>"From modules with dependencies".如图2所示

图2

 3.选择需要打包的模块(Module:)—>选择该JAR包的入口类(Main Class:)—>“OK”,如图3所示。

图3

 4.再次点击“OK”,如图4所示。

图4

 5.单击图4中的OK之后会回到代码编辑界面,此时JAR还未生成,单击“Build"—>”Build Artifacts",如图5所示。

图5

6.完成图5中的两步后会弹出一个新窗口,单击图中“Build”,如图6所示。

图6 

 7.构建成功的jar包会输出到/out/artifacts/目录下,如图7所示。

图7

 8.如果对已生成jar包的模块进行了代码或文件更改,需要再次生成jar包时,可以省略图6之前的步骤,直接在图6中选择“Rebuild"即可。

后续

1.IDEA项目文件中的jar包如何运行,右击out目录下的xxx.jar—>“Open in Terminal"—>输入命令:java -jar xxx.jar 即可运行该jar包。

图8

2.当收到别人发来的jar包如何运行:cmd打开一个终端—>输入命令:“cd ‘xxx.jar所在目录’”—>输入命令:“java -jar xxx.jar” 即可运行该jar包。

图9 

### 创建和生成 UDF 的 JAR IntelliJ IDEA 中创建用户定义函数 (UDF) 并生成 JAR 文件的过程涉及几个重要步骤。这些步骤确保编写的 Java 类可以被其他环境(如 Hive 或 Spark SQL)识别并使用。 #### 准备工作 为了使 UDF 正常运行,在编写之前需确认已安装好 JDK 和 IDE 工具,这里推荐使用最新稳定版的 JDK 版本以及 IntelliJ IDEA 社区或专业版本之一[^2]。 #### 编写 UDF 类 启动 IntelliJ IDEA 后,新建一个 Maven 项目用于管理依赖关系。接着按照标准流程开发所需的 UDF 功能逻辑: ```java package com.example.udf; import org.apache.hadoop.hive.ql.exec.UDF; import org.apache.hadoop.io.Text; public class ExampleUDF extends UDF { public Text evaluate(final Text input) { if (input == null) return null; String result = "processed_" + input.toString(); return new Text(result); } } ``` 此代码片段展示了如何继承 `org.apache.hadoop.hive.ql.exec.UDF` 来实现简单的字符串处理功能[^4]。 #### 配置 POM 文件 对于基于 Maven 构建工具构建的应用程序来说,应在项目的根目录下的 pom.xml 文件内声明必要的依赖项和其他设置。特别是当涉及到第三方库时,应通过如下方式指定其位置和作用域: ```xml <dependencies> <!-- Hadoop Core --> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-core</artifactId> <version>1.2.1</version> </dependency> <!-- Hive Common Library --> <dependency> <groupId>org.apache.hive</groupId> <artifactId>hive-exec</artifactId> <version>3.1.2</version> </dependency> <!-- 如果有额外的本地 jar 文件需要加入,则按下面的方式添加 --> <!--<dependency>--> <!-- <groupId>com.yourcompany</groupId>--> <!-- <artifactId>your-library-name</artifactId>--> <!-- <version>1.0-SNAPSHOT</version>--> <!-- <scope>system</scope>--> <!-- <systemPath>${project.basedir}/libs/your-library-file.jar</systemPath>--> <!--</dependency>--> </dependencies> ``` 上述 XML 块中含了两个主要组件——Hadoop 核心库和支持 Hive 查询执行的核心模块 hive-exec。如果有更多特定需求,还可以继续扩展这个列表[^3]。 #### 导出为 JAR 文件 完成编码之后就可以准备导出了。选择菜单栏中的 **File > Project Structure > Artifacts**, 添加一个新的 artifact 定义,选择 JAR 类型并将 Main-Class 设置为空因为这不是独立可执行文件而是供外部调用使用的插件形式存在。最后点击 Apply 和 OK 按钮保存更改[^1]。 回到主界面,依次点击 **Build > Build Artifacts...** ,再选中刚才建立的那个 Artifact 名字右边的小三角形展开下拉菜单,选取 “Build”。这一步会触发整个工程重新编译,并最终产出目标 JAR 文件存放在 out/artifacts 路径之下。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值