
spark
飘羽
为梦而不停的奔跑,上善若水,厚德载物。
展开
-
Hadoop集群如何进行扩展计算节点?
如添加node041 修改 /etc/hosts 文件,添加新节点的主机名和IP映射信息,命令:vi /etc/hosts172.24.240.20 namenode172.24.240.21 node01172.24.240.22 node02172.24.240.23 node03172.24.240.24 node042 更改Hadoop软件的配置信息,添加新节点信息,如下命令为: vi hadoop-2.7.2/etc/hadoop/slavesnode01n...原创 2021-10-10 17:04:01 · 1016 阅读 · 0 评论 -
Hadoop集群启动后,发现两个计算节点交替的启动,怎么办?
1、原因:是因为这两个节点相同的 datanodeUuid导致的。2、解决方法:(1)打开两个节点的VERSION文件查看:命令为:vi /home/source/gjn/datanode/current/VERSION(其中“/home/source/gjn/datanode”为在hdfs-site.xml文件中配置的HDFS的集群目录)如, <property> <name>dfs.datanode.d...原创 2021-10-10 16:39:37 · 542 阅读 · 0 评论 -
集群运行spark程序: java.lang.IllegalStateException: Subprocess exited with status 1. Command ran: ****
————当在集群模式下提交spark程序进行运行时,报错:java.lang.IllegalStateException: Subprocess exited with status 1. Command ran: ******************1. 首先寻找问题出现的原因:原因是基于Spark程序中调用的执行程序或命令无法正常执行的原因。2. 解决方法:由于是spark程序间接调用的程序,因此不会直接报出具体原因,只会告诉是子程序执行异常。方案一:抛开集群的运行,先后现需要.原创 2021-09-18 10:55:49 · 2031 阅读 · 0 评论 -
基于yarn资源管理器运行的任务,查看yarn日志相关操作
1、查看某个job的日志,例如:yarn logs -applicationId application_1529513682598_00092、查看某个job的状态,例如:yarn application -status application_1529513682598_00093、终止某个job 注意:一般不要直接在UI界面或者是终端kill掉任务,该任务可能还会继续执行下去。正确操作...原创 2018-06-21 15:35:31 · 3745 阅读 · 0 评论 -
Spark集群部署完成后,进行验证集群正确性的具体步骤。
&&&前提是切换在Spark软件的安装目录下:local单机模式:结果xshell可见:./bin/spark-submit --class org.apache.spark.examples.SparkPi --master local[1] ./lib/spark-examples-1.3.1-hadoop2.5.2.jar 100standalone集群模式:需要的配...转载 2018-06-15 15:22:11 · 1632 阅读 · 0 评论