- 博客(6)
- 资源 (2)
- 收藏
- 关注
原创 nginx负载接口与宕机切换
1.启动nginx/usr/local/nginx/sbin/nginx -c /home/thinkpad/nginx-1.8.0/conf/nginx.conf #指定配置文件启动nginxps -ef|grep nginx #查看nginx是否启动2.nginx.conf#user nobody;worker_processes 1;#error_log logs/e...
2020-01-09 16:20:28
888
原创 Permission denied: user=dr.who, access=READ_EXECUTE, inode="/app-logs"
因为权限不够,在hadoop 页面没法访问。下面命令执行了就可以。hadoop2.7.2版本sudo -u hdfs hadoop fs -chmod -R 755 /app-logs
2018-12-24 16:13:56
3161
1
原创 oh no something has gone wrong
centos 7 在虚拟机中出现 这个错误 导致进入不了系统。经过一中午的百度测试了各种方法都不行。最后找到了解决办法:在系统出错时 点了 xxx out 那个按钮,然后ctrl+alt+F2 进入命令模式,然后输入root 账号和密码。然后执行 yum update 执行这个命令 更新完成就行。reboot 重启即刻。导致出错的原因,应该是在安装各种软件时触动了 Gnom...
2018-12-20 13:38:32
10735
7
原创 root用户下hive进入不了命令端
报错是这样的:org.apache.hadoop.security.AccessControlException: Permission denied: user=root, access=WRITE, inode="/user/root":hdfs:hdfs:drwxr-xr-x 解决办法:# su - hdfs $ hdfs dfs -mkdir /user/root...
2018-12-10 14:48:13
2445
原创 spark2.2 sql 与 hive1.2.1出现的兼容性bug
前几天做项目遇到的一个bug,给大家分享一下。出现bug的句子:unix_timestamp(nvl(b.access_time,'2018-08-27 24:00:00'),'yyyy-MM-dd HH:mm:ss')这个句子在hive下跑完全没有问题,但是放到spark sql 里跑 就会出现数据性错误。经过排查后发现是这个句子的问题。 将其改为 unix_ti...
2018-08-29 14:44:30
2693
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人