表示 一个连接问题,具体是 Spark 应用程序在尝试连接 Hadoop 分布式文件系统(HDFS)时遇到了困难。
应该检查以下几点:
1.确保HDFS的名称节点正在运行,并且可以在指定的端口上访问。
2.检查网络配置,确保没有防火墙或安全组阻止连接。
3.检查 HDFS 配置文件(hdfs-site.xml 和 core-site.xml),确认名称节点的正确地址和端口已被指定。
4.确保Spark应用程序的类路径中包含了必要的 Hadoop 配置文件,以便它可以正确地连接到 HDFS。
发现是Hadoop配置文件中 core-site.xml的端口号 的错误 ,修改后就可以成功运行