JAVA API操作HDFS文件系统

本文提供了一个使用Java API操作HDFS文件系统的示例代码,包括上传文件、创建文件、重命名、删除、查看文件修改时间和位置等功能。适用于Hadoop 0.20版本。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

来自:http://blog.youkuaiyun.com/kkdelta/article/details/19910657

一个通过Java API操作HDFS文件系统的例子,本例子使用的是hadoop0.20的版本,在windows的eclipse下运行的时候,需要将core-site.xml和hdfs-site.xml放在src/bin目录中。

[java]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. public class TestHDFSFile {  
  2.   
  3.     private String localPath = "C:/D/JavaWorkSpace/bigdata/temp/";  
  4.     private String hdfsPath = "hdfs://192.168.2.6:9000/user/hadoop/temp/";  
  5.   
  6.     public static void main(String[] args) throws Exception {  
  7.         // new TestHDFSFile().testUpload();  
  8.         // new TestHDFSFile().testCreate();  
  9.         //new TestHDFSFile().testRename();  
  10.         //new TestHDFSFile().testDel();  
  11.         //new TestHDFSFile().testgetModifyTime();  
  12.         //new TestHDFSFile().testExists();  
  13.         //new TestHDFSFile().testFileBlockLocation();  
  14.           
  15.         new TestHDFSFile().testGetHostName();  
  16.           
  17.     }  
  18.   
  19.     // 上传本地文件到HDFS  
  20.     public void testUpload() throws Exception {  
  21.   
  22.         Configuration conf = new Configuration();  
  23.         // conf.addResource(new Path(localPath + "core-site.xml"));  
  24.         FileSystem hdfs = FileSystem.get(conf);  
  25.         Path src = new Path(localPath + "file01.txt");  
  26.         Path dst = new Path(hdfsPath);  
  27.         hdfs.copyFromLocalFile(src, dst);  
  28.   
  29.         System.out.println("Upload to " + conf.get("fs.default.name"));  
  30.         FileStatus files[] = hdfs.listStatus(dst);  
  31.         for (FileStatus file : files) {  
  32.             System.out.println(file.getPath());  
  33.         }  
  34.     }  
  35.   
  36.     // 创建HDFS文件  
  37.     public void testCreate() throws Exception {  
  38.         Configuration conf = new Configuration();  
  39.         byte[] buff = "hello world!".getBytes();  
  40.   
  41.         FileSystem hdfs = FileSystem.get(conf);  
  42.         Path dst = new Path(hdfsPath + "hello.txt");  
  43.         FSDataOutputStream outputStream = null;  
  44.         try {  
  45.             outputStream = hdfs.create(dst);  
  46.             outputStream.write(buff, 0, buff.length);  
  47.         } catch (Exception e) {  
  48.             e.printStackTrace();  
  49.   
  50.         } finally {  
  51.             if (outputStream != null) {  
  52.                 outputStream.close();  
  53.             }  
  54.         }  
  55.   
  56.         FileStatus files[] = hdfs.listStatus(dst);  
  57.         for (FileStatus file : files) {  
  58.             System.out.println(file.getPath());  
  59.         }  
  60.     }  
  61.   
  62.     // 重命名HDFS文件  
  63.   
  64.     public void testRename() throws Exception {  
  65.   
  66.         Configuration conf = new Configuration();  
  67.   
  68.         FileSystem hdfs = FileSystem.get(conf);  
  69.         Path dst = new Path(hdfsPath);  
  70.   
  71.         Path frpath = new Path(hdfsPath + "hello.txt");  
  72.         Path topath = new Path(hdfsPath + "hello2.txt");  
  73.   
  74.         hdfs.rename(frpath, topath);  
  75.   
  76.         FileStatus files[] = hdfs.listStatus(dst);  
  77.         for (FileStatus file : files) {  
  78.             System.out.println(file.getPath());  
  79.         }  
  80.     }  
  81.   
  82.     // 刪除HDFS文件  
  83.     public void testDel() throws Exception {  
  84.   
  85.         Configuration conf = new Configuration();  
  86.   
  87.         FileSystem hdfs = FileSystem.get(conf);  
  88.         Path dst = new Path(hdfsPath);  
  89.   
  90.         Path topath = new Path(hdfsPath+ "hello2.txt");  
  91.   
  92.         boolean ok = hdfs.delete(topath, false);  
  93.         System.out.println(ok ? "删除成功" : "删除失败");  
  94.   
  95.         FileStatus files[] = hdfs.listStatus(dst);  
  96.         for (FileStatus file : files) {  
  97.             System.out.println(file.getPath());  
  98.         }  
  99.     }  
  100.   
  101.     // 查看HDFS文件的最后修改时间  
  102.     public void testgetModifyTime() throws Exception {  
  103.   
  104.         Configuration conf = new Configuration();  
  105.   
  106.         FileSystem hdfs = FileSystem.get(conf);  
  107.         Path dst = new Path(hdfsPath);  
  108.   
  109.         FileStatus files[] = hdfs.listStatus(dst);  
  110.         for (FileStatus file : files) {  
  111.             System.out.println(file.getPath() + "\t"  
  112.                     + file.getModificationTime());  
  113.               
  114.             System.out.println(file.getPath() + "\t"  
  115.                     + new Date(file.getModificationTime()));  
  116.               
  117.         }  
  118.     }  
  119.   
  120.     // 查看HDFS文件是否存在  
  121.   
  122.     public void testExists() throws Exception {  
  123.   
  124.         Configuration conf = new Configuration();  
  125.           
  126.         FileSystem hdfs = FileSystem.get(conf);  
  127.         Path dst = new Path(hdfsPath + "file01.txt");  
  128.   
  129.         boolean ok = hdfs.exists(dst);  
  130.         System.out.println(ok ? "文件存在" : "文件不存在");  
  131.     }  
  132.   
  133.     // 查看某个文件在HDFS集群的位置  
  134.     public void testFileBlockLocation() throws Exception {  
  135.   
  136.         Configuration conf = new Configuration();  
  137.   
  138.         FileSystem hdfs = FileSystem.get(conf);  
  139.         Path dst = new Path(hdfsPath + "file01.txt");  
  140.   
  141.         FileStatus fileStatus = hdfs.getFileStatus(dst);  
  142.         BlockLocation[] blockLocations = hdfs.getFileBlockLocations(fileStatus,  
  143.                 0, fileStatus.getLen());  
  144.         for (BlockLocation block : blockLocations) {  
  145.             System.out.println(Arrays.toString(block.getHosts()) + "\t"  
  146.                     + Arrays.toString(block.getNames()));  
  147.         }  
  148.     }  
  149.   
  150.     // 获取HDFS集群上所有节点名称  
  151.     public void testGetHostName() throws Exception {  
  152.   
  153.         Configuration conf = new Configuration();  
  154.           
  155.         DistributedFileSystem hdfs = (DistributedFileSystem) FileSystem  
  156.                 .get(conf);  
  157.         DatanodeInfo[] dataNodeStats = hdfs.getDataNodeStats();  
  158.   
  159.         for (DatanodeInfo dataNode : dataNodeStats) {  
  160.             System.out.println(dataNode.getHostName() + "\t"  
  161.                     + dataNode.getName());  
  162.         }  
  163.     }  
  164. }  

### RT-DETRv3 网络结构分析 RT-DETRv3 是一种基于 Transformer 的实时端到端目标检测算法,其核心在于通过引入分层密集正监督方法以及一系列创新性的训练策略,解决了传统 DETR 模型收敛慢和解码器训练不足的问题。以下是 RT-DETRv3 的主要网络结构特点: #### 1. **基于 CNN 的辅助分支** 为了增强编码器的特征表示能力,RT-DETRv3 引入了一个基于卷积神经网络 (CNN) 的辅助分支[^3]。这一分支提供了密集的监督信号,能够与原始解码器协同工作,从而提升整体性能。 ```python class AuxiliaryBranch(nn.Module): def __init__(self, in_channels, out_channels): super(AuxiliaryBranch, self).__init__() self.conv = nn.Conv2d(in_channels, out_channels, kernel_size=3, padding=1) self.bn = nn.BatchNorm2d(out_channels) def forward(self, x): return F.relu(self.bn(self.conv(x))) ``` 此部分的设计灵感来源于传统的 CNN 架构,例如 YOLO 系列中的 CSPNet 和 PAN 结构[^2],这些技术被用来优化特征提取效率并减少计算开销。 --- #### 2. **自注意力扰动学习策略** 为解决解码器训练不足的问题,RT-DETRv3 提出了一种名为 *self-att 扰动* 的新学习策略。这种策略通过对多个查询组中阳性样本的标签分配进行多样化处理,有效增加了阳例的数量,进而提高了模型的学习能力和泛化性能。 具体实现方式是在训练过程中动态调整注意力权重分布,确保更多的高质量查询可以与真实标注 (Ground Truth) 进行匹配。 --- #### 3. **共享权重解编码器分支** 除了上述改进外,RT-DETRv3 还引入了一个共享权重的解编码器分支,专门用于提供密集的正向监督信号。这一设计不仅简化了模型架构,还显著降低了参数量和推理时间,使其更适合实时应用需求。 ```python class SharedDecoderEncoder(nn.Module): def __init__(self, d_model, nhead, num_layers): super(SharedDecoderEncoder, self).__init__() decoder_layer = nn.TransformerDecoderLayer(d_model=d_model, nhead=nhead) self.decoder = nn.TransformerDecoder(decoder_layer, num_layers=num_layers) def forward(self, tgt, memory): return self.decoder(tgt=tgt, memory=memory) ``` 通过这种方式,RT-DETRv3 实现了高效的目标检测流程,在保持高精度的同时大幅缩短了推理延迟。 --- #### 4. **与其他模型的关系** 值得一提的是,RT-DETRv3 并未完全抛弃经典的 CNN 技术,而是将其与 Transformer 结合起来形成混合架构[^4]。例如,它采用了 YOLO 系列中的 RepNCSP 模块替代冗余的多尺度自注意力层,从而减少了不必要的计算负担。 此外,RT-DETRv3 还借鉴了 DETR 的一对一匹配策略,并在此基础上进行了优化,进一步提升了小目标检测的能力。 --- ### 总结 综上所述,RT-DETRv3 的网络结构主要包括以下几个关键组件:基于 CNN 的辅助分支、自注意力扰动学习策略、共享权重解编码器分支以及混合编码器设计。这些技术创新共同推动了实时目标检测领域的发展,使其在复杂场景下的表现更加出色。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值