linux安装jdk1.8出现错误bash: export JAVA_HOME=/usr/local/java/jdk1.8.0_144: 没有那个文件或目录

作者在公司物理机安装JDK 1.8并配置环境变量时,执行source /etc/profile遇到问题。经确认解压目录、请运维同事查看均未解决。回家在虚拟机配置无问题,回公司继续排查,排除版本位数不一致问题后,通过Google搜索更改环境变量配置最终成功。

昨天在公司一台物理机配置环境,安装jdk1.8 从oracle官网下载1.8 tar包,然后解压,并配置环境变量
但是 执行source /etc/profile遇到如下截图问题:

bash: export JAVA_HOME=/usr/local/java/jdk1.8.0_144: 没有那个文件或目录
-bash: export JAVA_BIN=/usr/local/java/jdk1.8.0_144/bin: 没有那个文件或目录
-bash: export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin:/bin: 没有那个文件或目录
-bash: export CLASSPATH=.:/lib/dt.jar:/lib/tools.jar: 没有那个文件或目录
bash: export JAVA_HOME JAVA_BIN PATH CLASSPATH: 未找到命令...

看到这个问题,我觉确认解压目录

[root@localhost jdk1.8.0_144]# pwd                                                          
/usr/local/java/jdk1.8.0_144                                                                   
[root@localhost jdk1.8.0_144]# ll                                                              
总用量 25848                                                                                   
drwxr-xr-x. 2 10 143     4096 7月  22 13:08 bin                                                
-r--r--r--. 1 10 143     3244 7月  22 13:07 COPYRIGHT                                          
drwxr-xr-x. 4 10 143     4096 7月  22 13:07 db                                                 
drwxr-xr-x. 3 10 143     4096 7月  22 13:07 include                                            
-rwxr-xr-x. 1 10 143  5097973 6月  27 04:26 javafx-src.zip                                     
drwxr-xr-x. 5 10 143     4096 7月  22 13:07 jre                                                
drwxr-xr-x. 5 10 143     4096 7月  22 13:08 lib                                                
-r--r--r--. 1 10 143       40 7月  22 13:07 LICENSE                                            
drwxr-xr-x. 4 10 143     4096 7月  22 13:07 man                                                
-r--r--r--. 1 10 143      159 7月  22 13:07 README.html                                        
-rw-r--r--. 1 10 143      526 7月  22 13:07 release                                            
-rw-r--r--. 1 10 143 21111510 7月  22 13:07 src.zip                                            
-rwxr-xr-x. 1 10 143    63933 6月  27 04:26 THIRDPARTYLICENSEREADME-JAVAFX.txt                 
-r--r--r--. 1 10 143   145180 7月  22 13:07 THIRDPARTYLICENSEREADME.txt                        
[root@localhost jdk1.8.0_144]#  

确认无误,然后让运维同事帮忙看问题,没有解决,带着疑惑,回到家,在自家虚拟机配置,但是没有遇到问题。
今天早上,来到公司依然排查,从百度上搜索,说jdk版本位数跟系统位数不一致会导致,但是我的确没有问题。

解铃还须系铃人,我通过 FreeVPN Plus这个翻墙软件 ,google一下,看到结果

打开第一篇文章,发现环境变量配置竟然跟我的不一样

# gedit /etc/profile
在最后添加下面代码:

export JAVA_HOME=/usr/local/java/jdk1.8.0_144
export JRE_HOME=${JAVA_HOME}/jre  
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib  
export PATH=${JAVA_HOME}/bin:$PATH

上图,是google搜查出来的,然后就试着换一下,执行source /etc/profile

我原先配置:
这里写图片描述

[root@localhost jdk1.8.0_144]# java -version                                                   
java version "1.8.0_144"                                                                       
Java(TM) SE Runtime Environment (build 1.8.0_144-b01)                                          
Java HotSpot(TM) 64-Bit Server VM (build 25.144-b01, mixed mode)                               
[root@localhost jdk1.8.0_144]# 

果然成功了。

### 配置 Hadoop、Java、Spark 和 Hive 的环境变量 在大数据环境中,正确配置环境变量是确保 Hadoop、Java、Spark 和 Hive 等工具正常运行的关键步骤。以下是详细的配置方法。 #### 配置 Java 环境变量 首先需要安装 JDK,并设置 `JAVA_HOME` 变量指向 JDK 安装目录。编辑 `/etc/profile` 文件,添加以下内容: ```bash export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-amd64 export PATH=$JAVA_HOME/bin:$PATH ``` 此配置确保系统可以识别 Java 运行时环境并支持其他依赖 Java 的组件 [^2]。 #### 配置 Hadoop 环境变量 Hadoop 的环境变量主要通过 `/etc/profile` 用户级别的 `.bashrc` 文件进行设置。添加如下内容以支持 Hadoop 命令和库路径: ```bash export HADOOP_HOME=/opt/hadoop-3.2.3 export HADOOP_INSTALL=$HADOOP_HOME export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export YARN_HOME=$HADOOP_HOME export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin ``` 这些变量定义了 Hadoop 的安装路径及其子模块的依赖关系,有助于命令行直接调用 Hadoop 工具 [^1]。 #### 配置 Spark 环境变量 Spark 的环境配置通常也通过 `/etc/profile` 完成。进入 Spark 的 `conf` 目录,复制模板文件生成 `spark-env.sh`,然后编辑该文件: ```bash cp spark-env.sh.template spark-env.sh ``` 在 `spark-env.sh` 中添加以下内容: ```bash export SPARK_HOME=/opt/spark-2.4.0-bin-hadoop2.7 export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$SPARK_HOME/lib/native ``` 此外,若使用 Python 接口,还需设置 `PYSPARK_PYTHON` 指向 Python 解释器路径: ```bash export PYSPARK_PYTHON=/usr/bin/python3 ``` 这些配置使 Spark 能够与系统资源协同工作,并支持其分布式计算框架 [^2]。 #### 配置 Hive 环境变量 Hive 的环境变量通常通过 `/etc/profile` 设置,确保其能够访问 Hadoop 并支持 CLI 工具: ```bash export HIVE_HOME=/opt/hive-3.1.2 export PATH=$PATH:$HIVE_HOME/bin export CLASSPATH=$CLASSPATH:$HIVE_HOME/lib/* ``` 同时,在 Hive 启动前需确认 `hive-site.xml` 中已正确配置元数据库(如 MySQL)连接信息,以便 Hive 使用外部存储 [^1]。 --- ###
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值