- 博客(5)
- 收藏
- 关注
转载 Spark访问HIVE
Spark访问HIVE 知识点1:Spark访问HIVE上面的数据 配置注意点:. 1.拷贝mysql-connector-java-5.1.38-bin.jar等相关的jar包到你sparkhome/lib中(spark2.0之后是{spark_home}/lib中(spark2.0之后是sparkhome/lib中(spark2.0之后是{spark_home}/jars下),不清楚就全部拷贝过去 2.将Hive的配置文件hive-site.xml拷贝到${spark_home}/conf目录下 3.
2020-09-11 08:47:59
320
原创 HBase完全分布式
安装Zookeeper 安装Hadoop 三个启动Zookeeper sh zkServer.sh start sh zkServer.sh status 启动Hadoop的伪分布式 start-all.sh 解压安装包: tar -xvf hbase-0.98.17-hadoop2-bin.tar.gz 进入conf cd hbase-0.98.17-hadoop2/conf 编辑hbase-...
2019-12-16 19:14:05
100
1
原创 hadoop三节点完全分布式
三个节点关闭防火墙: service iptables stop chkconfig iptables off 三个节点需要修改主机名: vim /etc/sysconfig/network 修改HOSTNAME属性,例如: HOSTNAME=hadoop01 重新生效: source /etc/sysconfig/network 三个节点需要进行IP和主机名的映射: vim /etc/host...
2019-12-10 21:29:05
159
原创 Hadoop伪分布式配置
关闭防火墙 安装JDK JAVA_HOME=/home/presoftware/jdk1.8 NODE_HOME=/home/presoftware/node6 PATH=PATH:./:PATH:./:PATH:./:JAVA_HOME/bin:$NODE_HOME/bin 修改主机名,在Hadoop中,要求主机名中不能出现_和- cd /etc/sysconfig vim netw...
2019-12-02 21:31:06
117
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人