
HADOOP
西安人走哪都要吃泡馍
这个作者很懒,什么都没留下…
展开
-
大数据全家桶安装及启动JDK,mysql,canal,Zookeeper,Hadoop,Hive,Hbase,Datax,kylin,kafka,spark,flink,redis,zeppelin等
准备虚拟机用户名:root密码:123456IP: 192.168.100.100主机名: node01修改虚拟机IP地址:vim /etc/sysconfig/network-scripts/ifcfg-eth0DEVICE=eth0HWADDR=00:0C:29:61:02:ECTYPE=EthernetUUID=78ce60bd-12ff-4f76-9783-c1ddba997090ONBOOT=yesNM_CONTROLLED=yesBOOTPROTO=static原创 2020-05-18 18:29:31 · 1043 阅读 · 0 评论 -
druid安装命令集
Impaly环境的搭建:1:单机环境服务器规划:node01前提条件:启动kafka节点安装部署:1:上传压缩包2:解压缩:tar -xvzf imply-3.0.4.tar.gz -C ../servers3:删除安装目录下的conf配置文件夹4:上传“conf-quickstart.zip”5:解压缩conf-quickstart.zip6:修改conf-quickstart/druid/_common/common.runtime.properties 文件 6.1:修原创 2020-08-11 10:18:52 · 174 阅读 · 0 评论 -
azkaban安装详情
**在web/conf/**vim azkaban.propertiesAzkaban Personalization Settingsazkaban.name=Testazkaban.label=My Local Azkabanazkaban.color=#FF3601azkaban.default.servlet.path=/indexweb.resource.dir=web/default.timezone.id=Asia/ShanghaiAzkaban UserManager原创 2020-11-06 19:57:41 · 263 阅读 · 0 评论 -
关于hadoop的环境配置出错问题org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
关于:::**Exception in thread “main” java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z 报错问题的解决方案如出现跟上图一样的报错信息,应修改Hadoop的NativeIO.java源码C:\U...原创 2020-03-20 14:47:03 · 700 阅读 · 0 评论 -
执行spark-submit时,一直在Application report for application_1599648117906_0005 (state: ACCEPTED)刷新,解决方案
执行任务时,卡在(state:ACCEPTED)这一直不动,20/09/09 11:15:16 INFO yarn.Client: Application report for application_1599648117906_0004 (state: ACCEPTED)20/09/09 11:15:17 INFO yarn.Client: Application report for application_1599648117906_0004 (state: ACCEPTED)20/09/09原创 2020-09-09 20:04:31 · 7527 阅读 · 2 评论 -
saprk数据输出到mysql--直接上干货
此篇内容较简单干练,看不懂,欢迎关注加好友一起讨论,一起钻研打通大数据那个组件的通道val df: DataFrame = spark.sql("select * from merchantinfo ") df.write.mode(SaveMode.Overwrite).format("jdbc").option("url","jdbc:mysql://192.168.200.241:3306").option("dbtable","test_superset.test1").option(原创 2020-09-08 19:18:46 · 214 阅读 · 0 评论 -
安装hadoop的配置文件以及相关解释---未完待续
第一类配置:需要在/etc/hadoop/下配置四个.xml文件1》.hadoop-env.sh需要配置 export java_home=/export/servers/java2》core-site.xml 指定hadoop所使用的文件系统schma,有hdfs,file,fds等等,端口号是指namenode的地址,现在用8020,以前用9000,两个都可以用,但是只能选一个<property> <name>fs.defaultFS</n原创 2020-08-19 09:30:23 · 200 阅读 · 0 评论