hadoop学习笔记

更改文件或目录的所属用户

sudo chown hadoop /location_folders

sudo chown -R  hadoop  location_folders
无密钥登录
ssh-keygen -t rsa
之前如果建立 ssh 连接,
只要將公鑰複製到 ~/.ssh/authorized_keys 就可以利用金鑰登入
而不需要建立密碼.


現在的 ssh 使用同樣的方法會出現錯誤訊息


Agent admitted failure to sign using the key


解決方式 使用 ssh-add 指令將私鑰 加進來 (根据个人的密匙命名不同更改 id_rsa)
# ssh-add   ~/.ssh/id_rsa  




127.0.0.1 ubuntu.ubuntu-domain ubuntu
远程连接windows系统
sudo rdesktop -u administrator -p 233 -f 172.18.145.89
退出全屏Ctrl+Alt+Enter


rm -rf /home/hadoop/tmp
rm -rf /usr/local/hadoop1.0/logs/hadoop*
远程登录windows系统
rdesktop 172.18.145.81:4747
查看进程信息:
/usr/lib/jvm/java-7-sun/bin/jps


ps -ef | grep hive


hbase web 界面
http://localhost:60010/


格式化系统文件
bin/hadoop namenode -format


bin/start-all.sh


bin/stop-all.sh


./usr/local/eclipse/eclipse


./usr/local/apache-6.0.35/bin/startup.sh


./usr/local/apache-6.0.35/bin/shutdown.sh
启动hive服务后,输入

CREATE TABLE hbase_table_1(key int, value string) STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,cf1:val") TBLPROPERTIES ("hbase.table.name" = "xyz");
如果没有报错,则hive和hbase的整合成功了。如果出现namenode in sage mode的提示,则使用


按照如下顺序启动集群相关服务
hadoop-1.0.3/bin/start-all.sh
hadoop-1.0.3/bin/hadoop dfsadmin -safemode leave
离开安全模式
hbase-0.92.0/bin/start-hbase.sh
启动HIVE

hive-0.9.0/bin/hive start
文件系统格式化

hadoop-1.0.3/bin/hadoop namenode -format


hadoop操作


复制文件到hadoop
hadoop-1.0.3/bin/hadoop fs -copyFromLocal /home/hadoop/testTmp/file4.txt /tmp/input/



查看web作业界面
http://localhost:50030/jobtracker.jsp
查看hdfs web页面

http://localhost:50070/dfshealth.jsp
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值