
Linux
文章平均质量分 62
dont_curry
这个作者很懒,什么都没留下…
展开
-
Ubuntu桌面卡死
方法一:不需要重启 推荐我出现卡死的现象是鼠标可以动,但是点击任何地方都没反应,终端也调不出来。按Ctrl+Alt+F1可以进入tty终端输入账号和密码进行登录,注意,这一步不要使用小键盘执行命令注销桌面重新登录输入命令:ps -t tty7可以看到 有一个Xorg的进程然后输入如下命令:sudo pkill Xorg或者 sudo restart lightdm命令执行后,界面会显示登录框,输入密码后等待几分钟,一般就能恢复正常方法二:安全重启首先,无论U原创 2021-12-29 16:22:53 · 5896 阅读 · 1 评论 -
Linux环境Hadoop、spark、Kafka搭建流程
spark环境搭建流程服务器名称及IP使⽤vim修改hosts⽂件,vim /etc/hosts,三台服务器均做相同配置添加master:192.168.x.Xslaver1:192.168.x.Xslaver2:192.168.x.xvim /etc/hostname,需要对三台服务器分别配置为master、slaver1、slaver2192.168.x.x master 192.168.x.x slaver1 192.168.x.x slaver2三台电脑免密登录在原创 2021-02-08 10:44:32 · 490 阅读 · 1 评论 -
hadoop datanode启动失败
问题如上这种问题在日志可以看到,其实是一个权限的问题,我们把data的目录所有者改为你当前的用户就可以了。sudo chown -R user:user /usr/local/hadoop-2.9.2/dfs/data注意目录改成自己的原创 2020-10-27 12:49:12 · 200 阅读 · 0 评论 -
使用python代替spark-submit运行pyspark代码
刚开始使用pyspark,写了import pyspark的代码,运行时需要spark-submit xx.py来执行xx文件。可以直接使用python来执行xx.py。需要首先安装findspark包pip install findspark然后在代码开始进行初始化,找到spark,详细如下:import findsparkfindspark.init()from pyspark import SparkContextsc = SparkContext("local", "count app原创 2020-10-23 11:30:11 · 531 阅读 · 0 评论 -
Linux、Ubuntu常用的基础操作命令
解压文件,查看日子,文件传输原创 2020-10-06 18:08:24 · 227 阅读 · 0 评论