通过传参自定义打印星星的行数

本文介绍了一个简单的Java程序,该程序能够根据用户输入的行数打印出相应大小的星星三角形。通过使用嵌套循环实现了从顶部到底部逐渐增大的等腰三角形效果。
import java.util.Scanner;
public class star{
    public static void main(String[] args){
        System.out.println("请输入要打印的星星的行数"); 
        Scanner input = new Scanner(System.in);
        int num = input.nextInt();
        printTriangle(num);
    }
    public static void printTriangle(int line){
        for(int i=1;i<=line;i++){
            for(int j=i;j<line;j++){
                System.out.print(" ");
            }
            for(int j=1;j<=i*2-1;j++){
                System.out.print("*");
            }
            System.out.println();
        }
    }
}

打印8行星星

在 Java Spark 中,使用 `spark-submit` 命令进行自定义传参可以通过不同的方式实现。 ### 传递系统变量或自定义属性 可利用 `--driver-java-options` 配置,给 driver 传递额外的 Java 选项,实现类似于用 `-D` 的参数来配置程序。示例脚本如下: ```bash spark-submit \ --driver-java-options '-Djava.util.Arrays.useLegacyMergeSort=true' \ --class com.xxxxxx.recommend.similarity.SimilarityEtl \ --master yarn-cluster \ --num-executors 20 \ --driver-memory 6g \ --executor-memory 4g \ --executor-cores 2 \ --queue userqueue \ /data/task/etl/etl-similarity-1.1.4.jar ``` 在这个示例中,`-Djava.util.Arrays.useLegacyMergeSort=true` 就是自定义传递的系统属性,在 Java 代码中可以通过 `System.getProperty("java.util.Arrays.useLegacyMergeSort")` 来获取该属性值[^3]。 ### 传递应用程序参数 在 `spark-submit` 命令的最后,可以直接添加应用程序所需的参数。例如: ```bash spark-submit \ --class com.example.MySparkApp \ --master yarn-cluster \ /path/to/your/spark-app.jar arg1 arg2 arg3 ``` 在 Java 代码里,可以通过 `main` 方法的参数数组 `args` 来获取这些自定义参数,示例代码如下: ```java import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaSparkContext; public class MySparkApp { public static void main(String[] args) { // 检查参数数量 if (args.length < 3) { System.err.println("Usage: MySparkApp <arg1> <arg2> <arg3>"); System.exit(1); } // 获取自定义参数 String arg1 = args[0]; String arg2 = args[1]; String arg3 = args[2]; // 创建 SparkConf 和 JavaSparkContext SparkConf conf = new SparkConf().setAppName("MySparkApp"); JavaSparkContext sc = new JavaSparkContext(conf); // 业务逻辑代码 // ... // 关闭 SparkContext sc.stop(); } } ``` ### 配置 Spark 属性参数 可以使用 `spark-submit` 命令设置 Spark 相关的属性参数,像 `--num-executors`、`--executor-memory`、`--executor-cores`、`--driver-memory` 等。示例如下: ```bash spark-submit \ --master yarn \ --deploy-mode cluster \ --executor-cores 1 \ --queue users.rtmap \ --class com.simple.datacenter.dw.ods.goods.TMallGoodsV2 \ --jars mysql-connector-java-5.1.45.jar \ datacenter-dw-ods-1.0-SNAPSHOT.jar ``` 这些参数会影响 Spark 作业的资源分配和运行模式等,可根据实际需求进行调整[^4]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值