七、Spark 1.5.1客户端安装以及基于YARN的提交模式

本文详细介绍了在虚拟机上安装Spark并配置基于YARN的提交模式的过程,包括内存检查、Spark客户端安装、环境变量设置、spark-env.sh文件修改及图形界面安装等步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

①spark有三种基本的提交模式,这里只介绍基于YARN的提交模式

查看还剩多少内存:在sparkproject1的虚拟机上的/usr/local/目录下输入:free

在Mem这一行,free这里列看到所剩的内存。

②安装spark客户端

1、利用WinSCP软件将文件spark-1.5.1-bin-hadoop2.4.tgz拷贝到虚拟机sparkproject1的/usr/local/目录下。

2、解压缩spark包,在local目录下输入:tar -zxvf spark-1.5.1-bin-hadoop2.4.tgz

      解压完以后,删除压缩包,在local目录下输入:rm -rf spark-1.5.1-bin-hadoop2.4.tgz,然后输入:ll检查。

3、重命名spark目录,先在local目录下输入:ll,发现有spark-1.5.1-bin-hadoop2.4文件夹,重命名这个文件夹名字。

      在local目录下输入:mv spark-1.5.1-bin-hadoop2.4 spark

4、 修改spark环境变量,在local目录下输入: vi ~/.bashrc

       输入键盘 i 键 ,更改内容:

       export SPARK_HOME=/usr/local/spark

       export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

       export PATH=$PATH:......$SPARK_HOME/bin

     

       最后的内容为:

      export JAVA_HOME=/usr/java/latest

      export HADOOP_HOME=/usr/local/hadoop

      export HIVE_HOME=/usr/local/hive

      export ZOOKEEPER_HOME=/usr/local/zk

      export SCALA_HOME=/usr/local/scala

      export FLUME_HOME=/usr/local/flume

      export FLUME_CONF_DIR=$FLUME_HOME/conf

      export SPARK_HOME=/usr/local/spark

      export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

      export

PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin:$ZOOKEEPER_HOME/bin:$SCALA_HOME/bin:$FLUME_HOME/bin:$SPARK_HOME/bin

然后按Esc键,再输入:wq,保存退出。

5、最后source一下,在local目录输入:source ~/.bashrc③修改spark-env.sh文件

1、在sparkproject1虚拟机的/usr/local/目录下输入:cd spark/conf/,进入conf文件夹。

2、再在conf目录下输入:ll,发现有:spark-env.sh.template,模板文件。为这个模板文件更改名字。

      在conf目录下输入:cp spark-env.sh.template spark-env.sh

3、在conf目录下输入:vi spark-env.sh

      然后输入键盘 i 键,更改内容:

      在# Copy it as spark-env.sh and edit that to configure Spark for your site.这一行下面增加如下内容:

      export JAVA_HOME=/usr/java/latest

      export SCALA_HOME=/usr/local/scala

      export HADOOP_HOME=/usr/local/hadoop

      export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop

      最后按Esc键,输入:wq,保存退出。

④用yarn-client模式提交spark作业

提交spark自己的示例包里面的文件。

1、在sparkproject1虚拟机的/usr/local/目录下输入:mkdir spark-study,新建这样一个文件夹。

      然后输入:cd spark-study/,进入这个sparkstudy目录进行操作。

2、在spark_study目录下输入:vi spark_pi.sh

      输入键盘 i 键,更改内容:

        /usr/local/spark/bin/spark-submit \

        --class org.apache.spark.example.JavaSparkPi \

       --master yarn-client \

       --num-executors 1 \

       --driver-memory 1m \

       --executor-memory 1m \

       --executor-cores 1 \

       /usr/local/spark/lib/spark-examples-1.5.1-hadoop2.4.0.jar \

再按Esc键,输入:wq,保存退出。

3、在spark_study目录下输入:chmod 777 spark_pi.sh

4、在spark_study目录下输入:./spark_pi.sh

⑤安装图形化界面

 

yum groupinstall "X Window System"

yum groupinstall "Desktop"

yum groupinstall "Chinese Support"

然后再:startx,启动

内容概要:本文详细介绍了扫描单分子定位显微镜(scanSMLM)技术及其在三维超分辨体积成像中的应用。scanSMLM通过电调透镜(ETL)实现快速轴向扫描,结合4f检测系统将不同焦平面的荧光信号聚焦到固定成像面,从而实现快速、大视场的三维超分辨成像。文章不仅涵盖了系统硬件的设计与实现,还提供了详细的软件代码实现,包括ETL控制、3D样本模拟、体积扫描、单分子定位、3D重建和分子聚类分析等功能。此外,文章还比较了循环扫描与常规扫描模式,展示了前者在光漂白效应上的优势,并通过荧光珠校准、肌动蛋白丝、线粒体网络和流感A病毒血凝素(HA)蛋白聚类的三维成像实验,验证了系统的性能和应用潜力。最后,文章深入探讨了HA蛋白聚类与病毒感染的关系,模拟了24小时内HA聚类的动态变化,提供了从分子到细胞尺度的多尺度分析能力。 适合人群:具备生物学、物理学或工程学背景,对超分辨显微成像技术感兴趣的科研人员,尤其是从事细胞生物学、病毒学或光学成像研究的科学家和技术人员。 使用场景及目标:①理解和掌握scanSMLM技术的工作原理及其在三维超分辨成像中的应用;②学习如何通过Python代码实现完整的scanSMLM系统,包括硬件控制、图像采集、3D重建和数据分析;③应用于单分子水平研究细胞内结构和动态过程,如病毒入侵机制、蛋白质聚类等。 其他说明:本文提供的代码不仅实现了scanSMLM系统的完整工作流程,还涵盖了多种超分辨成像技术的模拟和比较,如STED、GSDIM等。此外,文章还强调了系统在硬件改动小、成像速度快等方面的优势,为研究人员提供了从理论到实践的全面指导。
内容概要:本文详细介绍了基于Seggiani提出的渣层计算模型,针对Prenflo气流床气化炉中炉渣的积累和流动进行了模拟。模型不仅集成了三维代码以提供气化炉内部的温度和浓度分布,还探讨了操作条件变化对炉渣行为的影响。文章通过Python代码实现了模型的核心功能,包括炉渣粘度模型、流动速率计算、厚度更新、与三维模型的集成以及可视化展示。此外,还扩展了模型以考虑炉渣组成对特性的影响,并引入了Bingham流体模型,更精确地描述了含未溶解颗粒的熔渣流动。最后,通过实例展示了氧气-蒸汽流量增加2%时的动态响应,分析了温度、流动特性和渣层分布的变化。 适合人群:从事煤气化技术研究的专业人士、化工过程模拟工程师、以及对工业气化炉操作优化感兴趣的科研人员。 使用场景及目标:①评估不同操作条件下气化炉内炉渣的行为变化;②预测并优化气化炉的操作参数(如温度、氧煤比等),以防止炉渣堵塞;③为工业气化炉的设计和操作提供理论支持和技术指导。 其他说明:该模型的实现基于理论公式和经验数据,为确保模型准确性,实际应用中需要根据具体气化炉的数据进行参数校准。模型还考虑了多个物理场的耦合,包括质量、动量和能量守恒方程,能够模拟不同操作条件下的渣层演变。此外,提供了稳态求解器和动态模拟工具,可用于扰动测试和工业应用案例分析。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值