HDFS操作之下载-GetFromHdfs

接 http://freewxy.iteye.com/admin/blogs/1102759 ,检查hdfs上是否有/user/hadoop/input文件

执行完毕后检查/home/hadoop/tmp/program_getFromHdfs_input文件是否生成

 

 

package GetFromHdfs;

import java.io.IOException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

public class GetFromHdfs {
	  /**
	   * 将文件从hdfs上下载回local
	   * src为hdfs的来源
	   * dst为local的目的端
	   */
	  static boolean getFromHdfs(String src,String dst, Configuration conf) {
	    Path dstPath = new Path(src);
	    try {
	      // 获取操作hdfs的对象
	      FileSystem hdfs = dstPath.getFileSystem(conf);
	      // 下載
	      hdfs.copyToLocalFile(false, new Path(src),new Path(dst));
	      
	    } catch (IOException e) {
	      e.printStackTrace();
	      return false;
	    }
	    return true;
	  }
	  static public void main(String args[]){
	    Configuration conf = new Configuration();
	    String src = "/user/hadoop/input";
	    String dst = "/home/hadoop/tmp/program_getFromHdfs_input";
	    boolean status = getFromHdfs(src, dst, conf);
	    System.err.println("download? :" + status);
	    
	  }

}

 

1、将该java代码打包为HelloHadoop.jar

    选择程序入口时注意如图选择:

--------------------------------------------------------------------------------------------------------------------------------------



-----------------------------------------------------------------------------------------------------------------------------------

2、将HelloHadoop.jar从workspace复制到/usr/local/hadoop目录下(你自己的hadoop目录下)

3、运行hadoop框架(伪分布式):   $ bin/start-all.sh

4、运行HelloHadoop.jar :     $bin/hadoop jar HelloHadoop.jar

 

 

内容概要:本文详细介绍了扫描单分子定位显微镜(scanSMLM)技术及其在三维超分辨体积成像中的应用。scanSMLM通过电调透镜(ETL)实现快速轴向扫描,结合4f检测系统将不同焦平面的荧光信号聚焦到固定成像面,从而实现快速、大视场的三维超分辨成像。文章不仅涵盖了系统硬件的设计与实现,还提供了详细的软件代码实现,包括ETL控制、3D样本模拟、体积扫描、单分子定位、3D重建和分子聚类分析等功能。此外,文章还比较了循环扫描与常规扫描模式,展示了前者在光漂白效应上的优势,并通过荧光珠校准、肌动蛋白丝、线粒体网络和流感A病毒血凝素(HA)蛋白聚类的三维成像实验,验证了系统的性能和应用潜力。最后,文章深入探讨了HA蛋白聚类与病毒感染的关系,模拟了24小时内HA聚类的动态变化,提供了从分子到细胞尺度的多尺度分析能力。 适合人群:具备生物学、物理学或工程学背景,对超分辨显微成像技术感兴趣的科研人员,尤其是从事细胞生物学、病毒学或光学成像研究的科学家和技术人员。 使用场景及目标:①理解和掌握scanSMLM技术的工作原理及其在三维超分辨成像中的应用;②学习如何通过Python代码实现完整的scanSMLM系统,包括硬件控制、图像采集、3D重建和数据分析;③应用于单分子水平研究细胞内结构和动态过程,如病毒入侵机制、蛋白质聚类等。 其他说明:本文提供的代码不仅实现了scanSMLM系统的完整工作流程,还涵盖了多种超分辨成像技术的模拟和比较,如STED、GSDIM等。此外,文章还强调了系统在硬件改动小、成像速度快等方面的优势,为研究人员提供了从理论到实践的全面指导。
内容概要:本文详细介绍了基于Seggiani提出的渣层计算模型,针对Prenflo气流床气化炉中炉渣的积累和流动进行了模拟。模型不仅集成了三维代码以提供气化炉内部的温度和浓度分布,还探讨了操作条件变化对炉渣行为的影响。文章通过Python代码实现了模型的核心功能,包括炉渣粘度模型、流动速率计算、厚度更新、与三维模型的集成以及可视化展示。此外,还扩展了模型以考虑炉渣组成对特性的影响,并引入了Bingham流体模型,更精确地描述了含未溶解颗粒的熔渣流动。最后,通过实例展示了氧气-蒸汽流量增加2%时的动态响应,分析了温度、流动特性和渣层分布的变化。 适合人群:从事煤气化技术研究的专业人士、化工过程模拟工程师、以及对工业气化炉操作优化感兴趣的科研人员。 使用场景及目标:①评估不同操作条件下气化炉内炉渣的行为变化;②预测并优化气化炉的操作参数(如温度、氧煤比等),以防止炉渣堵塞;③为工业气化炉的设计和操作提供理论支持和技术指导。 其他说明:该模型的实现基于理论公式和经验数据,为确保模型准确性,实际应用中需要根据具体气化炉的数据进行参数校准。模型还考虑了多个物理场的耦合,包括质量、动量和能量守恒方程,能够模拟不同操作条件下的渣层演变。此外,提供了稳态求解器和动态模拟工具,可用于扰动测试和工业应用案例分析。
### HDFS 创建目录命令详解 在 HDFS 中,`mkdir` 命令用于创建新目录。该命令支持一次性创建多个目录,并允许递归创建父级目录(类似于 Linux 系统中的 `mkdir -p`)。以下是具体使用方法及相关注意事项。 #### 单个目录创建 要创建单个目录,可以直接指定目标路径: ```bash hdfs dfs -mkdir /example_directory ``` 此命令将在 HDFS 根目录下创建名为 `example_directory` 的目录[^3]。 --- #### 多个目录创建 如果需要同时创建多个目录,可以在同一命令中提供多个路径作为参数: ```bash hdfs dfs -mkdir /directory1 /directory2 /directory3 ``` 这会分别在 HDFS 根目录下创建三个独立的目录:`directory1`, `directory2`, 和 `directory3`[^3]。 --- #### 递归创建目录 当目标路径的上级目录尚不存在时,需使用 `-p` 参数来启用递归创建功能。例如: ```bash hdfs dfs -mkdir -p /parent_dir/sub_dir/grand_sub_dir ``` 这条命令不仅会在 HDFS 上创建最终的目标目录 `grand_sub_dir`,还会自动构建其所有必需的父级目录 `parent_dir` 和 `sub_dir`[^3]。 --- #### 验证目录是否已成功创建 为了确认刚刚创建的目录是否存在,可以使用 `ls` 命令列出对应路径的内容: ```bash hdfs dfs -ls / ``` 或者针对特定子目录进行检查: ```bash hdfs dfs -ls /parent_dir/sub_dir/ ``` --- #### 注意事项 - **重复创建**:尝试对已经存在的目录执行 `mkdir` 操作不会引发错误,也不会覆盖现有目录。 - **权限管理**:确保当前用户拥有足够的权限去创建所请求的目录;否则,操作会被拒绝并提示相应的错误信息。 - **绝对路径 vs 相对路径**:建议始终采用绝对路径形式调用 `mkdir`,以便更清晰地定义目标位置。 --- ### 示例代码块 以下是一个完整的示例流程,展示如何从无到有建立一个多层嵌套结构的目录体系: ```bash # 步骤一:初始化环境,清理旧数据(如果有) hdfs dfs -rm -r -f /test_base/ # 步骤二:递归新建多层次目录 hdfs dfs -mkdir -p /test_base/level_one/level_two/level_three # 步骤三:验证结果 hdfs dfs -ls /test_base/ ``` 运行以上脚本后,应该能够看到如下层次化的目录树形结构被成功部署于 HDFS之上。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值