用hadoop中的libhdfs和fuse-dfs构建快速云存储

安装版本:

OS版本:CentOS 5.4
Hadoop版本:0.20.203.0
gcc:系统默认4.1.2
Jdk:1.6.0.21
FUSE:2.7.4


环境需求:
automake,autoconf,m4,libtool,pkgconfig,fuse,fuse-devel,fuse-libs。

需要外部下载ant 1.8.2,在apache网站下载即可

安装过程:

#wget http://mirror.bjtu.edu.cn/apache//ant/binaries/apache-ant-1.8.2-bin.zip
#unzip apache-ant-1.8.2-bin.zip
#export JAVA_HOME=/usr/java/jdk1.6.0_21
#export HADOOP_HOME=/opt/modules/hadoop/hadoop-0.20.203.0
#export OS_ARCH=amd64
###i386/amd64
#export OS_BIT=64
###32/64
#export ANT_HOME=/root/apache-ant-1.8.2
#export PATH=$PATH:$ANT_HOME/bin
#export LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/$OS_ARCH/server:${HADOOP_HOME}/build/c++/Linux-$OS_ARCH-$OS_BIT/lib:/usr/local/lib:/usr/lib

#yum -y install fuse fuse-devel fuse-libs
#modprobe fuse
####设置环境变量,也可写入profile####

红字部分为其上只变量的选项,根据服务器操作系统版本进行变更。

一、编译libhdfs

然后进入hadoop安装路径运行以下命令

#/root/apache-ant-1.8.2/bin/ant compile-c++-libhdfs -Dlibhdfs=1 -Dcompile.c++=1
#ln -s c++/Linux-$OS_ARCH-$OS_BIT/lib build/libhdfs

这一步是编译libhdfs,因为libhdfs需要交叉编译,直接到src里面编译会报错,所以需要用ant编译。注意OS_ARCH和OS_BIT必须设置,否则会失败。

二、编译fuse-dfs

hadoop 0.20.203.0版本中fuse存在一个bug,需要先修改掉才能继续编译。

打开$HADOOP_HOME/src/contrib/fuse-dfs/src/fuse_connect.c

找到
hdfsFS fs = hdfsConnectAsUser(hostname, port, user, (const char **)groups, numgroups);

修改为
hdfsFS fs = hdfsConnectAsUser(hostname, port, user);

然后运行编译
#/root/apache-ant-1.8.2/bin/ant compile-contrib -Dlibhdfs=1 -Dfusedfs=1

如果编译失败,比较可能的原因是找不到libhdfs,请参看第一步的ln -s。

三、环境配置

然后编辑/etc/fuse.conf,写入以下内容
user_allow_other
mount_max=100

编辑$HADOOP_HOME/build/contrib/fuse-dfs/fuse_dfs_wrapper.sh

if [ "$HADOOP_HOME" = "" ]; then
export HADOOP_HOME=/opt/modules/hadoop/hadoop-0.20.203.0
fi

export PATH=$HADOOP_HOME/build/contrib/fuse_dfs:$PATH

for f in ls $HADOOP_HOME/lib/*.jar $HADOOP_HOME/*.jar ; do
export    CLASSPATH=$CLASSPATH:$f
done

if [ "$OS_ARCH" = "" ]; then
export OS_ARCH=amd64
fi

if [ "$JAVA_HOME" = "" ]; then
export    JAVA_HOME=/usr/java/jdk1.6.0_21
fi

if [ "$LD_LIBRARY_PATH" = "" ]; then
export LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/$OS_ARCH/server:/usr/local/share/hdfs/libhdfs/:/usr/local/lib
fi

./fuse_dfs $@

然后我的整体环境变量如下

#注意下面的用户,尽量不要用root
[
hadoop@collect-wzlink-205 fuse-dfs]$export
declare -x G_BROKEN_FILENAMES="1"
declare -x HISTSIZE="1000"
declare -x HOME="/home/hadoop"
declare -x INPUTRC="/etc/inputrc"
declare -x LANG="en_US.UTF-8"
declare -x LESSOPEN="|/usr/bin/lesspipe.sh %s"
declare -x LOGNAME="hadoop"
declare -x LS_COLORS="no=00:fi=00:di=01;34:ln=01;36:pi=40;33:so=01;35:bd=40;33;01:cd=40;33;01:or=01;05;37;41:mi=01;05;37;41:ex=01;32:*.cmd=01;32:*.exe=01;32:*.com=01;32:*.btm=01;32:*.bat=01;32:*.sh=01;32:*.csh=01;32:*.tar=01;31:*.tgz=01;31:*.arj=01;31:*.taz=01;31:*.lzh=01;31:*.zip=01;31:*.z=01;31:*.Z=01;31:*.gz=01;31:*.bz2=01;31:*.bz=01;31:*.tz=01;31:*.rpm=01;31:*.cpio=01;31:*.jpg=01;35:*.gif=01;35:*.bmp=01;35:*.xbm=01;35:*.xpm=01;35:*.png=01;35:*.tif=01;35:"
declare -x MAIL="/var/spool/mail/root"
declare -x OLDPWD="/opt/modules/hadoop/hadoop-0.20.203.0/build/contrib"
declare -x PATH="/usr/kerberos/sbin:/usr/kerberos/bin:/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin"
declare -x PWD="/opt/modules/hadoop/hadoop-0.20.203.0/build/contrib/fuse-dfs"
declare -x SHELL="/bin/bash"
declare -x SHLVL="2"
declare -x TERM="linux"
declare -x USER="hadoop"

然后尝试mount

$mkdir /tmp/dfs
$cd $HADOOP_HOME/build/contrib/fuse-dfs
$./fuse_dfs_wrapper.sh dfs://hadoopmaster:9000 /tmp/dfs
port=9000,server=hadoopmaster
fuse-dfs didn't recognize /tmp/dfs,-2(这个问题目前不知如何解决,但不影响使用。)


写出来觉得很简单,其实中间遇到了很多问题。

四、主要问题

1.编译libhdfs,centos5.4默认是ant 1.6.2,结果没编译成功,下载了新版的1.8.2才编译成功

2.编译fuse-dfs,一定要写ln -s c++/Linux-$OS_ARCH-$OS_BIT/lib build/libhdfs,否则就算你把libhdfs.so.0放到/usr/lib或者/usr/local/lib下,也照样会报找不到文件。

3.环境变量一定要设置齐全,否则会有很多莫名其妙的错误。

4.fuse启动过程中,可能会出现mount --no-canonicalize的一个错误,这个问题,对不起,目前我还无解,搞了大半天没搞出来,直接换了台服务器,正常了。

5.fuse启动过程中,出现找不到libjvm.so,需要设置CLASSPATH到jdk的tools.jar,lib/之类的

6.mount可能会出现fusermount: mount failed: Operation not permitted
用root将/bin/fusermount和/usr/bin/fusermount用chmod 4777改掉。

7.其他问题可以在tail -f /var/log/messages | grep fuse查看

8.fuse-dfs的debug启动,后面加-d

这样mount的结果是,把HDFS当成本地硬盘使用,速度还是非常可以的。

再一个好处是文件在HDFS里面会保存3份,互为冗余,不会出现文件丢失的现象。

还有个就是访问速度快,HADOOP会将多个服务器上的数据拼成完整数据返回给用户,而服务器越多,每台服务器的访问量就越少,速度就越快。

如果数据交换量大,可以采用我之前写过的多网卡绑定方案增加服务器之间的数据交换。


### Hadoop中执行start-dfs.sh时出现'未找到命令'错误的解决方案 在Hadoop环境中,当执行`start-dfs.sh`时出现“未找到命令”错误,通常与环境变量配置、文件权限或路径设置有关。以下是可能的原因及解决方法: #### 1. 环境变量未正确配置 确保`Hadoop`的`sbin`目录已添加到系统的`PATH`变量中。如果未正确配置,系统将无法识别`start-dfs.sh`命令。可以通过以下方式解决[^4]: ```bash echo "export PATH=$PATH:/usr/local/hadoop/sbin" >> $HOME/.bashrc source $HOME/.bashrc ``` 上述命令将`/usr/local/hadoop/sbin`路径添加到`PATH`变量中,并使更改生效。 #### 2. 文件权限问题 检查`start-dfs.sh`脚本是否具有可执行权限。如果没有,可以使用以下命令赋予执行权限: ```bash chmod +x /usr/local/hadoop/sbin/start-dfs.sh ``` #### 3. 配置文件中的JAVA_HOME未正确设置 如果`JAVA_HOME`未正确设置,可能导致`start-dfs.sh`脚本无法正常运行。需要编辑`hadoop-env.sh`文件并正确设置`JAVA_HOME`[^3]: ```bash vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh ``` 在文件中添加或修改以下内容: ```bash export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_60 ``` 注意:`/usr/lib/jvm/jdk1.7.0_60`应替换为实际安装的JDK路径。 #### 4. Hadoop用户权限问题 在某些情况下,`start-dfs.sh`脚本可能因用户权限不足而无法正常运行。可以通过编辑`start-dfs.sh``stop-dfs.sh`脚本,确保用户权限正确设置[^1]: ```bash vi /usr/local/hadoop/sbin/start-dfs.sh ``` 在脚本中添加以下内容: ```bash HDFS_DATANODE_USER=root HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root ``` #### 5. Hadoop临时目录未正确配置 如果Hadoop的临时目录未正确配置,也可能导致`start-dfs.sh`脚本无法正常运行。可以在`core-site.xml`中配置临时目录[^5]: ```xml <property> <name>hadoop.tmp.dir</name> <value>/opt/module/hadoop-2.7.3/data</value> </property> ``` ### 示例代码 以下是一个完整的检查修复流程示例: ```bash # 检查PATH变量是否包含Hadoop的sbin目录 echo $PATH | grep "/usr/local/hadoop/sbin" # 如果未包含,则添加 echo "export PATH=$PATH:/usr/local/hadoop/sbin" >> $HOME/.bashrc source $HOME/.bashrc # 检查start-dfs.sh是否具有执行权限 ls -l /usr/local/hadoop/sbin/start-dfs.sh # 如果没有执行权限,则赋予 chmod +x /usr/local/hadoop/sbin/start-dfs.sh # 编辑hadoop-env.sh并设置JAVA_HOME vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_60 # 编辑start-dfs.sh并设置用户权限 vim /usr/local/hadoop/sbin/start-dfs.sh HDFS_DATANODE_USER=root HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值