fedora18安装hadoop配置伪分布模式

本文详细介绍了在Fedora18系统上安装配置Java和Hadoop的过程,包括下载相应版本、安装配置Java环境变量、配置SSH服务以及安装、配置和启动Hadoop的基本步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、安装配置java
1.下载rpmd对应版本
2.安装sudo yum 安装文件路径,安装后在fedora18下安装后路径在/usr/java下,目前sun的java最高版本1.7.0_21
3.配置环境变量
打开文件sudo gedit /etc/profile
4.添加内容,在unset i一句话上面,注意里面的配置需要和系统中实际路径配合,所以有时候按照网上方法就会配置失败
export JAVA_HOME=/usr/java/default
export JRE_HOME=/user/java/latest
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
5.注意一点,这个配置只对当前用户起效
二、配置SSH
SSH简介http://baike.baidu.com/view/16184.htm#sub5909252
1.确认是否已安装ssh服务
rpm -qa | grep openssh-server
2.安装sudo yum install openssh-server
3.启动服务sudo service sshd status
4.停止服务sudo service sshd stop
5.设置系统启动时开启服务# systemctl enable sshd.service
6.开启防火墙22端口(运行时配置和永久配置)
7.查看用户是否有ssh文件夹
ls -a /home/用户名
8.ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
~代表当前用户文件夹,ssh-keygen代表生成密钥;-t(注意区分大小写)表示指定生成的密钥类型;dsa是dsa密钥认证的意思,即密钥类型;-P用于提供密语;-f指定生成的密钥文件。这个命令会在.ssh文件夹下创建id_dsa及id_dsa.pub两个文件,这是SSH的一对私钥和公钥,类似于钥匙和锁.
9.把id_dsa.pub(公钥)追加到授权的key中去
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

这条命令的功能是把公钥加到用于认证的公钥文件中,这里的authorized_keys是用于认证的公钥文件。

10.修改/etc/ssh/sshd_config
找到以下内容,并去掉注释符"#"
    RSAAuthentication yes
    PubkeyAuthentication yes
    AuthorizedKeysFile .ssh/authorized_keys
然后重启服务
11.修改文件authorized_keys的权限
chmod 600 /home/用户名/.ssh/authorized_keys

12.验证面密码登录本机
ssh localhost
出现下面的语句就表示成功了
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'localhost' (RSA) to the list of known hosts.
在询问时回答yes注意区分大小写
如果曾经操作过此过程,但是没有起到效果,可以将.ssh文件夹清空再操作一次即可了
三、安装hadoop
1.使用rpm安装时会出现系统文件冲突,所以下载tar的版本
现在稳定版建议使用1.1.2作为生产环境搭建基础
研究和学习新一代的技术建议使用2.0.4版本
2.0以上版本采用了新的并行计算框架yarn,性能以及功能都有极大提高.
3.访问网址http://hadoop.apache.org/
4.下载
北京交通大学的镜像站,开源软件均可下载
 http://mirror.bit.edu.cn/apache/hadoop/common/stable/hadoop-1.1.2-1.x86_64.rpm
 http://mirror.bit.edu.cn/apache/hadoop/common/stable/hadoop-1.1.2.tar.gz
5.解压缩即可
四、hadoop配置
1.a. 单机模式. 单机模式是Hadoop的默认模。当配置文件为空时,Hadoop完全运行在本地。因为不需要与其他节点交互,单机模式就不使用HDFS,也不加载任何Hadoop的守护进程。该模式主要用于开发调试MapReduce程序的应用逻辑。
b. 伪分布模式. Hadoop守护进程运行在本地机器上,模拟一个小规模的的集群。该模式在单机模式之上增加了代码调试功能,允许你检查内存使用情况,HDFS输入输出,以及其他的守护进程交互。
c. 全分布模式. Hadoop守护进程运行在一个集群上。
2.单机模式无需配置
3.伪分布模式配置
(1)修改hadoop-env.sh的如下内容:
             export JAVA_HOME=/usr/java/jdk1.7.0_21
(2)配置的是HDFS(Hadoop的分布式文件系统)的地址及端口号。注意更改防火墙
conf/core-site.xml:
<configuration>
     <property>
         <name>fs.default.name</name>
         <value>hdfs://localhost:9000</value>
     </property>
<property>        如果不配置的话每次重启电脑都需要格式化
         <name>hadoop.tmp.dir</name>
         <value>/home/wind/hadooptemp</value>
     </property>
</configuration>
(3)Hadoop中HDFS的配置,配置的备份方式默认为3,在单机版的Hadoop中,需要将其改为1
conf/hdfs-site.xml:
<configuration>
     <property>
         <name>dfs.replication</name>
         <value>1</value>
     </property>
</configuration>
(4)Hadoop中MapReduce的配置文件,配置JobTracker的地址及端口。注意更改防火墙
conf/mapred-site.xml:
<configuration>
     <property>
         <name>mapred.job.tracker</name>
         <value>localhost:9001</value>
     </property>
</configuration>
4.在启动Hadoop前,需要格式化Hadoop的文件系统HDFS。注意带有bin/意味着在命令端下处于hadoop根目录下
bin/Hadoop namenode –format
5.启动hadoop服务进程
bin/start-all.sh
停用hadoop服务进程
bin/stop-all.sh
查看进程状态
jps
会列出启动的服务以及进程id
6.验证Hadoop是否安装成功,都能查看,说明Hadoop已经安装成功
http://localhost:50030 (MapReduce的Web页面)
http://localhost:50070 (HDFS的Web页面)
7.单独启动服务
DFS(start-dfs.sh)
MapReduce(start-mapred.sh)
8.运行测试程序
(0)echo “Hello world hadoop” >>~/file1
(1)bin/hadoop fs -mkdir /tmp/input                   创建目录
(2)bin/hadoop fs –put ~/file1 /tmp/input        将文件输出到创建目录下
(3)bin/hadoop jar hadoop-examples-1.1.2.jar wordcount /tmp/input /tmp/out      注意输出路径不能已经存在,否则报错
(4)http://localhost:50030查看已经运行的任务
9.重启服务器后处理,(未作随机启动)
(1)启动ssh:service sshd start
(2)启动hadoop服务:bin/start-all.sh 
内容概要:本文详细介绍了扫描单分子定位显微镜(scanSMLM)技术及其在三维超分辨体积成像中的应用。scanSMLM通过电调透镜(ETL)实现快速轴向扫描,结合4f检测系统将不同焦平面的荧光信号聚焦到固定成像面,从而实现快速、大视场的三维超分辨成像。文章不仅涵盖了系统硬件的设计与实现,还提供了详细的软件代码实现,包括ETL控制、3D样本模拟、体积扫描、单分子定位、3D重建和分子聚类分析等功能。此外,文章还比较了循环扫描与常规扫描模式,展示了前者在光漂白效应上的优势,并通过荧光珠校准、肌动蛋白丝、线粒体网络和流感A病毒血凝素(HA)蛋白聚类的三维成像实验,验证了系统的性能和应用潜力。最后,文章深入探讨了HA蛋白聚类与病毒感染的关系,模拟了24小时内HA聚类的动态变化,提供了从分子到细胞尺度的多尺度分析能力。 适合人群:具备生物学、物理学或工程学背景,对超分辨显微成像技术感兴趣的科研人员,尤其是从事细胞生物学、病毒学或光学成像研究的科学家和技术人员。 使用场景及目标:①理解和掌握scanSMLM技术的工作原理及其在三维超分辨成像中的应用;②学习如何通过Python代码实现完整的scanSMLM系统,包括硬件控制、图像采集、3D重建和数据分析;③应用于单分子水平研究细胞内结构和动态过程,如病毒入侵机制、蛋白质聚类等。 其他说明:本文提供的代码不仅实现了scanSMLM系统的完整工作流程,还涵盖了多种超分辨成像技术的模拟和比较,如STED、GSDIM等。此外,文章还强调了系统在硬件改动小、成像速度快等方面的优势,为研究人员提供了从理论到实践的全面指导。
内容概要:本文详细介绍了基于Seggiani提出的渣层计算模型,针对Prenflo气流床气化炉中炉渣的积累和流动进行了模拟。模型不仅集成了三维代码以提供气化炉内部的温度和浓度分布,还探讨了操作条件变化对炉渣行为的影响。文章通过Python代码实现了模型的核心功能,包括炉渣粘度模型、流动速率计算、厚度更新、与三维模型的集成以及可视化展示。此外,还扩展了模型以考虑炉渣组成对特性的影响,并引入了Bingham流体模型,更精确地描述了含未溶解颗粒的熔渣流动。最后,通过实例展示了氧气-蒸汽流量增加2%时的动态响应,分析了温度、流动特性和渣层分布的变化。 适合人群:从事煤气化技术研究的专业人士、化工过程模拟工程师、以及对工业气化炉操作优化感兴趣的科研人员。 使用场景及目标:①评估不同操作条件下气化炉内炉渣的行为变化;②预测并优化气化炉的操作参数(如温度、氧煤比等),以防止炉渣堵塞;③为工业气化炉的设计和操作提供理论支持和技术指导。 其他说明:该模型的实现基于理论公式和经验数据,为确保模型准确性,实际应用中需要根据具体气化炉的数据进行参数校准。模型还考虑了多个物理场的耦合,包括质量、动量和能量守恒方程,能够模拟不同操作条件下的渣层演变。此外,提供了稳态求解器和动态模拟工具,可用于扰动测试和工业应用案例分析。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值