Windows10连接到其他服务器
使用命令
ssh root@hostname
或者ssh root@ip地址(公网IP)
hadoop dfsadmin -report # 验证运行情况
hadoop fs -ls #查看目录
hadoop fs -ls -R #查看目录及子目录下所有文件
hadoop fs mkdir /lrs # 创建lrs文件夹
hadoop fs -put 1.txt /lrs #传输1.txt文件到lrs文件夹中,注意1.txt在当前目录下
hadoop jar wordcount.jar WordCount /input.txt /output # 运行jar文件,且输入为input.txt,输出放入output文件夹中
hadoop fs -rm -rf /test #删除test目录中的所有文件及目录本身
cat at.txt #查看at.txt文件内容
linux下载文件:
sudo apt install cmake
linux删除锁文件:
sudo rm /var/lib/dpkg/lock
sudo rm /var/lib/apt/lists/lock
linux删除缓存目录下的所文件
sudo rm /var/cache/apt/archives/lock
接下来要运行如下命令
sudo dpkg --configure -a
ubuntun中修改环境变量
sudo gedit /etc/profile
如何查看linux是32位还是64位
getconf LONG_BIT
查找某路径的软连接:
到达该路径,输入ll查看;
增加软链接:
ln -s /java/bin /usr/local/bin
注意 -s 增加符号链接,起到链接作用;
-f 强制执行;
-sf 强制增加,如果原来存在就覆盖掉;
删除软连接:
如果是当前路径的link,那么unlink linkname
否则,unlink 路径+linkname
错误:
CMake错误:找不到CMAKE_ROOT!!!
CMake很可能没有正确安装。
在中找不到模块目录
/home/LV/Downloads/cmake-3 . 23 . 1-Linux-x86 _ 64/share/cmake-3.5
cmake版本3.5.1
/usr/bin中
-rwxr-xr-x 1 root root 4272380 Sep 27 2016 cmake*
lrwxrwxrwx 1 root root 58 May 4 19:57 cmake-gui -> /home/lv/Downloads/cmake-3.23.1-linux-x86_64/bin/cmake-gui*
lv@ubuntu:/usr/local/bin$ ll
total 8
drwxr-xr-x 2 root root 4096 May 4 19:55 ./
drwxr-xr-x 10 root root 4096 Jul 19 2016 …/
lrwxrwxrwx 1 root root 55 May 4 19:55 ccmake -> /home/lv/Downloads/cmake-3.23.1-linux-x86_64/bin/ccmake*
lrwxrwxrwx 1 root root 54 May 4 19:55 cmake -> /home/lv/Downloads/cmake-3.23.1-linux-x86_64/bin/cmake*
lrwxrwxrwx 1 root root 58 May 4 19:55 cmake-gui -> /home/lv/Downloads/cmake-3.23.1-linux-x86_64/bin/cmake-gui*
lrwxrwxrwx 1 root root 54 May 4 19:55 cpack -> /home/lv/Downloads/cmake-3.23.1-linux-x86_64/bin/cpack*
lrwxrwxrwx 1 root root 54 May 4 19:55 ctest -> /home/lv/Downloads/cmake-3.23.1-linux-x86_64/bin/ctest*
hadoop dfs -ls -R /spark_test
hadoop dfs -ls -R /
hadoop dfs -cat /spark_test/part-00000
可以复制两条命令,直接粘贴;会直接执行两条命令;
hive --servicemetastore &
hive --servicemetastore2 &
虚拟系统的私钥存放位置
vim /root/.ssh/id_rsa.pub
虚拟系统的放置密码的地方
vim /root/.ssh/authorized_keys
授予权限
chmod -R 777 /root/spark-2.1.1-bin-hadoop2.7
解压文件
tar -xvf mysql-2.3.tar.gz
sql开机
mysql -uroot -p
复制文件(一行,一行写不下)
scp -r /home/modules/kafka root@host:/home/modules
redis关闭
redis-cli shutdown
防火墙使用
ifconfig 或 ip addr 可以查看linux主机的ip
service iptables status linux查看防火墙是否开启
centos7系统下
systemctl status firewalld 查看是否启动
start firewalld
stop firewalld
iptables 或 iptables -L 查看iptables目前运行的规则
启动thrift-server
要使用Hbase的thrift接口,必须将它的服务启动,启动Hbase的thrift-server进程如下:
cd /app/zpy/hbase/bin
./hbase-daemon.sh start thrift
执行jps命令检查:
34533 ThriftServer
thrift默认端口是9090,启动成功后可以查看端口是否起来。
lsof -i:9090
COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
java 34533 hadoop 314u IPv6 798279 0t0 TCP *:websm (LISTEN)
Linux/UNIX 系统中的文件系统采用的是树形文件结构。Linux/UNIX 系统中的 ./ 代表的意思是:某一个文件(或者目录)的查找路径是从当前目录(.)下面开始进行查找。例如:./my_subdir/my_textfile,代表的意思就是:当前目录下面的 /my_subdir 子目录下面的 my_textfile 这个文本文件;./my_runfile 代表的意思就是:当前目录下面的 my_runfile 这个运行文件,等等。
./ 代表当前文件目录; …/上级文件目录 ; / 根目录