如何安装Spark

安装Spark的过程就是下载和解压的过程。接下来的操作,我们把它上传到集群中的节点,并解压运行。

1.启动虚拟机

2.通过finalshell连接虚拟机,并上传安装文件到 /opt/software下

3.解压spark安装文件到/opt/module下
tar -zxvf spark-3.3.1-bin-hadoop3.tgz -C /opt/module/

4.重命名,把解压后的文件夹改成spark-local。因为后续我们还会使用其他的配置方式,所以这里先重命名一次。mv是linux的命令,

mv spark-3.3.1-bin-hadoop3 spark-local

配置环境变量

1.打开etc/profile.d/my_env.sh文件中,补充设置spark的环境变量。

# 省略其他...

# 添加spark 环境变量

export SPARK_HOME=/opt/module/spark-local

export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

2.使用 source /etc/profile 命令让环境变量生效

单机模式运行第一个Spark程序

这里使用单机模式快运行第一个Spark程序,让大家有个基本的印象。在安装Spark时,它就提供了一些示例程序,我们可以直接来调用。进入到spark-local,运行命令spark-submit命令。

spark-submit --class org.apache.spark.examples.SparkPi --master local[2] /opt/module/spark-local/examples/jars/spark-examples_2.12-3.1.1.jar 10

或者写成

$ cd /opt/module/spark-local
$ bin/spark-submit \

--class org.apache.spark.examples.SparkPi \

--master local[2] \

./examples/jars/spark-examples_2.12-3.3.1.jar \

10

这里的 \ 是换行输入的意思,整体的代码就只有一句,只不过太长了,我们把它拆开成几个部分来输入,其中\ 的意思就是这里写不下,写在下一行。

结果展示

该算法是利用蒙特·卡罗算法求PI的值,具体运行效果如下。请注意,它并不会产生新的文件,而是直接在控制台输出结果。

Spark安装教程包含环境准备、安装步骤、配置文件修改等环节。 前期需做好环境准备,为后续安装奠定基础。安装步骤方面,安装后需修改Spark的配置文件`spark-env.sh`,具体命令为: ```bash cd /usr/local/spark cp ./conf/spark-env.sh.template ./conf/spark-env.sh ``` 此步骤能让Spark根据配置正常运行[^3]。 配置完成后可直接使用,无需像Hadoop运行启动命令。可通过运行Spark自带的示例来验证Spark是否安装成功,命令如下: ```bash cd /usr/local/spark-3.4.0 bin/run-example SparkPi ``` 若示例能正常运行,则表明Spark安装成功[^2]。 此外,若要进行SparkSQL整合Hive,需进行如下操作: 1. 复制`hive-site.xml`到spark的conf目录,同时拷贝hive的mysql connector到spark的jar目录下: ```bash # 拷贝hive-site.xml cp /component/hive/conf/hive-site.xml /component/spark-3.1.2/conf # 拷贝hive的mysql connector到spark的jar目录下 cp /component/hive/lib/mysql-connector-java-5.1.49.jar /component/spark-3.1.2/jars/ ``` 2. 修改`hive-site.xml`: ```xml <?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>hive.metastore.uris</name> <value>thrift://newdata1:9083</value> </property> </configuration> ``` 3. 测试整合是否正确,可使用以下命令: ```bash bin/spark-sql --master local[2] --executor-memory 512m --total-executor-cores 1 # 或 bin/spark-sql --master spark://newdata1:7077 --executor-memory 512m --total-executor-cores 1 bin/spark-sql \ --master spark://newdata1:7077 \ --executor-memory 512m --total-executor-cores 1 \ --conf spark.sql.warehouse.dir=hdfs://hadoopHA:8020/user/hive/warehouse ``` 然后执行`show databases;`和`create database sparkhive;`进行测试[^4]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值