
linux
逗点儿
大数据爱好者,菜鸟
展开
-
linux常用命令2
IP相关 ifconfig:查看网卡信息hostname:主机名字 -i:查看主机名映射的IPtail filename -f:实时查看文件内容-F:实时查看文件内容(-F相较于-f更加优秀,可以在发生某个时间段该文件不存在时或被覆盖时,-F将会再次尝试查看,总之尽量用-F)mv oldfilename newfilename:重命名cp oldfilename newfilename...原创 2017-12-02 22:59:20 · 162 阅读 · 0 评论 -
Linux安装MySQL教程
MySQL是非常常用的数据库相较于Oracle,其免费的的特性令人称道,是作为学习数据库入门的不二之选,另外安装软件我在/usr/local下安装,希望大家和我一起养成习惯。我演示在CentOS6.5中的安装教程:MySQL下载对于下载,可以采用wget的方式下载,具体网址去官网找找,将地址复制可以采用win系统下载,用传输工具的方式例:WinSCP,传输到Linux系统上这是我的压缩包位置,原创 2017-12-07 22:48:22 · 470 阅读 · 0 评论 -
Linux常用命令1
Linux常用命令1前两天学的Linux的一部分常用命令,我想以游戏作弊代码一样简介的方式来描述Linux的操作命令cd :切换目录 cd ~:切换家目录(root为/root,普通用户为/home/用户名)cd /filename:以绝对路径切换目录cd -:返回上一次操作路径,并输出路径(亲测一直用这个命令会操作的路径会循环,试试就知道了)cd ~:切换到上一句目录clear:清理桌原创 2017-11-30 21:56:47 · 253 阅读 · 1 评论 -
Linux常用命令3
useradd 用户名:添加用户groupadd 组名:添加用户组usermod :修改用户账户信息 -a -G:将用户追加到某个组中(两个缺一不可)passwd:修改用户密码su:切换用户并获得该用户执行权限 -:获取该用户环境变量(推荐)sudo:该命令行root权限修改sudoers:vi /etc/sudoers hadoop的 ALL=(root) NOPASSWD...原创 2017-12-04 14:03:38 · 165 阅读 · 0 评论 -
swap分区详解
Linux内核为了提高读写与速度,将文件在内存中进行缓存,这就是Cache Memory(缓存内存)。CM在程序运行完并不会自动释放。所以在Linux程序频繁读写文件的时候,系统物理内存就会不足。当其不足的时候,必然要将内存释放,以供当前正在运行的程序使用。而被释放的程序就会被临时保存在swap空间中。一旦再次需要被释放的程序,就可以从swap中恢复到内存中。swap 分区标准 4G以内的原创 2018-01-24 17:46:10 · 954 阅读 · 0 评论 -
手动释放cache
释放内存cache,首先我们要查看一下使用情况例如我的电脑: hadoop:root:/root:>free -m total used free shared buffers cachedMem: 1869 265 1603 0 22原创 2018-01-27 20:52:45 · 472 阅读 · 0 评论 -
ssh遇到port 22:No route to host问题
ssh遇到这个port 22:No route to host的这个问题其实是比较常见的问题,通常是两个思路:检查防火墙状态检查ssh状态这两个方面的解决方案非常常见,无非就是查看这两个,防火墙是否关闭和ssh是否正在运行,大家自行百度方法就好,下面我要说说我遇到的坑,感觉大部分人遇到坑都是因为之前的操作,忘记了,才导致的坑。有可能网上最正统的解决方案解决不了问题,毕竟解决问题还是要...原创 2018-02-11 00:13:01 · 72933 阅读 · 4 评论 -
配置多台互相ssh信任关系
配置ssh实现多台互信,其作用是实现多台机器免密码登陆。在集群中,配置多台互信是十分必要的,由于机器条件关系,我演示两台互信:环境简述: 两台虚拟机:hadoop 192.168.137.5和hadoop2 193.168.137.6 版本:CentOS6.5一.基础配置 hadopp的操作 - 下载sshd yum install sshd生成.shh文件(注意权限原创 2018-02-11 13:47:41 · 1227 阅读 · 0 评论 -
Hadoop启动频繁输入密码且已经设置免密登陆
我的问题界面代码:hadoop:hadoop:/home/hadoop/.ssh:>start-all.sh This script is Deprecated. Instead use start-dfs.sh and start-yarn.shStarting namenodes on [hadoop]hadoop@hadoop's password: [3]+ Sto...原创 2018-03-06 19:38:57 · 3014 阅读 · 2 评论