encoderMapReduce 随手记

这篇博客介绍了MapReduce的概念,通过实例展示了如何使用Java实现MapReduce来统计两个文本文件中每个单词的出现次数。同时,还展示了如何利用MapReduce计算班级每个学生的最高成绩,并实现文件内容合并去重的功能。整个过程涉及Hadoop的MapReduce作业和HDFS的交互,强调了启动start-dfs.sh的重要性。

1、MapReduce定义

将这些数据切分成三块,然后分别计算处理这些数据(Map),
处理完毕之后发送到一台机器上进行合并(merge),
再计算合并之后的数据,归纳(reduce)并输出。

Java 中包含3个函数:
map分割数据集
reduce处理数据
job对象来运行MapReduce作业,

2、MapReduce统计两个文本文件中,每个单词出现的次数

首先我们在当前目录下创建两个文件:

创建file01输入内容:
Hello World Bye World
创建file02输入内容:
Hello Hadoop Goodbye Hadoop
将文件上传到HDFS的/usr/input/目录下:
不要忘了启动DFS:
start-dfs.sh

public class WordCount {  
//Mapper类  
/*因为文件默认带有行数,LongWritable是用来接受文件中的行数,  
第一个Text是用来接受文件中的内容,  
第二个Text是用来输出给Reduce类的key,  
IntWritable是用来输出给Reduce类的value*/  
 public static class TokenizerMapper   
       extends Mapper<LongWritable, Text, Text, IntWritable>{  
    private final static IntWritable one = new IntWritable(1);  
    private Text word = new Text();  
    public void map(LongWritable key, Text value, Context context  
                    ) throws IOException, InterruptedException {  
      StringTokenizer itr = new StringTokenizer(value.toString());  
      while (itr.hasMoreTokens()) {  
        word.set(itr.nextToken());  
        context.write(word, one);  
      }  
    }  
  }  
  public static class IntSumReducer   
       extends Reducer<Text,IntWritable,Text,IntWritable> {  
    private IntWritable result = new IntWritable();  
    public void reduce(Text key, Iterable<IntWritable> values,   
                       Context context  
                       ) throws IOException, InterruptedException {  
      int sum = 0;  
      for (IntWritable val : values) {  
        sum += val.get();  
      }  
      result.set(sum);  
      context.write(key, result);  
    }  
  }  
  public static void main(String[] args) throws Exception {  
    //创建配置对象  
    Configuration conf = new Configuration();  
    //创建job对象  
    Job job = new Job(conf, "word count");  
    //设置运行job的类  
    job.setJarByClass(WordCount.class);  
    //设置Mapper的类  
    job.setMapperClass(TokenizerMapper.class);  
    //设置Reduce的类  
    job.setReducerClass(IntSumReducer.class);  
    //设置输出的key value格式  
    job.setOutputKeyClass(Text.class);  
    job.setOutputValueClass(IntWritable.class);  
    //设置输入路径  
    String inputfile = "/usr/input";  
    //设置输出路径  
    String outputFile = "/usr/output";  
    //执行输入  
    FileInputFormat.addInputPath(job, new Path(inputfile));  
    //执行输出  
    FileOutputFormat.setOutputPath(job, new Path(outputFile));  
    //是否运行成功,true输出0,false输出1  
    System.exit(job.waitForCompletion(true) ? 0 : 1);  
  }  
}

hadoop的MapReduce与hdfs中一定要先启动start-dfs.sh

3、用MapReduce计算班级每个学生的最好成绩

import java.io.IOException;
import java.util.StringTokenizer;
 
import java.io.IOException;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.*;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;

public class WordCount {  
    /********** Begin **********/  
    public static class TokenizerMapper extends Mapper<LongWritable, Text, Text,      IntWritable> {  
        private final static IntWritable one = new IntWritable(1);  
        private Text word = new Text();  
        private int maxValue = 0;  
        public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {  
            StringTokenizer itr = new StringTokenizer(value.toString(),"\n");  
            while (itr.hasMoreTokens()) {  
                String[] str = itr.nextToken().split(" ");  
                String name = str[0];  
                one.set(Integer.parseInt(str[1]));  
                word.set(name);  
                context.write(word,one);  
            }  
            //context.write(word,one);  
        }  
    }
    public static class IntSumReducer extends Reducer<Text, IntWritable, Text, IntWritable> {  
        private IntWritable result = new IntWritable();
        public void reduce(Text key, Iterable<IntWritable> values, Context context)  
                throws IOException, InterruptedException {  
            **int maxAge = 0;  
            int age = 0;  
            for (IntWritable intWritable : values) {  
                maxAge = Math.max(maxAge, intWritable.get());  
            }  
            result.set(maxAge);**  
            context.write(key, result);  
        }  
    }
    public static void main(String[] args) throws Exception {  
        Configuration conf = new Configuration();  
        Job job = new Job(conf, "word count");  
        job.setJarByClass(WordCount.class);  
        job.setMapperClass(TokenizerMapper.class);  
        job.setCombinerClass(IntSumReducer.class);  
        job.setReducerClass(IntSumReducer.class);  
        job.setOutputKeyClass(Text.class);  
        job.setOutputValueClass(IntWritable.class);  
        String inputfile = "/user/test/input";  
        String outputFile = "/user/test/output/";  
        FileInputFormat.addInputPath(job, new Path(inputfile));  
        FileOutputFormat.setOutputPath(job, new Path(outputFile));  
        job.waitForCompletion(true);  
    /********** End **********/  
    }  
}

4、 MapReduce 文件内容合并去重

import java.io.IOException;
import java.util.*;  
import org.apache.hadoop.conf.Configuration;  
import org.apache.hadoop.fs.Path;  
import org.apache.hadoop.io.*;  
import org.apache.hadoop.mapreduce.Job;  
import org.apache.hadoop.mapreduce.Mapper;  
import org.apache.hadoop.mapreduce.Reducer;  
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;  
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;  
import org.apache.hadoop.util.GenericOptionsParser;  
public class Merge {  
    /**  
     * @param args  
     * 对A,B两个文件进行合并,并剔除其中重复的内容,得到一个新的输出文件C  
     */  
    //在这重载map函数,直接将输入中的value复制到输出数据的key上 注意在map方法中要抛出异常:throws IOException,InterruptedException  
    /********** Begin **********/  
    public static class Map extends Mapper<LongWritable, Text, Text, Text >  
    {  
        protected void map(LongWritable key, Text value, Mapper<LongWritable, Text, Text, Text>.Context context)  
                throws IOException, InterruptedException {  
            String str = value.toString();  
            String[] data = str.split(" ");  
            Text t1= new Text(data[0]);  
            Text t2 = new Text(data[1]);  
            context.write(t1,t2);  
        }  
    }   
    /********** End **********/  
    //在这重载reduce函数,直接将输入中的key复制到输出数据的key上  注意在reduce方法上要抛出异常:throws IOException,InterruptedException  
    /********** Begin **********/  
    public static class Reduce  extends Reducer<Text, Text, Text, Text>  
    {  
        protected void reduce(Text key, Iterable<Text> values, Reducer<Text, Text, Text, Text>.Context context)  
                throws IOException, InterruptedException {  
            List<String> list = new ArrayList<>();  
            for (Text text : values) {  
                String str = text.toString();  
                if(!list.contains(str)){  
                    list.add(str);  
                }  
            }  
            Collections.sort(list);  
            for (String text : list) {  
                context.write(key, new Text(text));  
            }  
        }  
    /********** End **********/  
    }  
    public static void main(String[] args) throws Exception{  
        Configuration conf = new Configuration();  
         Job job = new Job(conf, "word count");  
        job.setJarByClass(Merge.class);  
        job.setMapperClass(Map.class);  
        job.setCombinerClass(Reduce.class);  
        job.setReducerClass(Reduce.class);  
        job.setOutputKeyClass(Text.class);  
        job.setOutputValueClass(Text.class);  
        String inputPath = "/user/tmp/input/";  //在这里设置输入路径  
        String outputPath = "/user/tmp/output/";  //在这里设置输出路径  
        FileInputFormat.addInputPath(job, new Path(inputPath));  
        FileOutputFormat.setOutputPath(job, new Path(outputPath));  
        System.exit(job.waitForCompletion(true) ? 0 : 1);  
    }  
}  
内容概要:本文为《科技类企业品牌传播白皮书》,系统阐述了新闻媒体发稿、自媒体博主种草与短视频矩阵覆盖三大核心传播策略,并结合“传声港”平台的AI工具与资源整合能力,提出适配科技企业的品牌传播解决方案。文章深入分析科技企业传播的特殊性,包括受众圈层化、技术复杂性与传播通俗性的矛盾、产品生命周期影响及2024-2025年传播新趋势,强调从“技术输出”向“价值引领”的战略升级。针对三种传播方式,分别从适用场景、操作流程、效果评估、成本效益、风险防控等方面提供详尽指南,并通过平台AI能力实现资源智能匹配、内容精准投放与全链路效果追踪,最终构建“信任—种草—曝光”三位一体的传播闭环。; 适合人群:科技类企业品牌与市场负责人、公关传播从业者、数字营销管理者及初创科技公司创始人;具备一定品牌传播基础,关注效果可量化与AI工具赋能的专业人士。; 使用场景及目标:①制定科技产品全生命周期的品牌传播策略;②优化媒体发稿、KOL合作与短视频运营的资源配置与ROI;③借助AI平台实现传播内容的精准触达、效果监测与风险控制;④提升品牌在技术可信度、用户信任与市场影响力方面的综合竞争力。; 阅读建议:建议结合传声港平台的实际工具模块(如AI选媒、达人匹配、数据驾驶舱)进行对照阅读,重点关注各阶段的标准化流程与数据指标基准,将理论策略与平台实操深度融合,推动品牌传播从经验驱动转向数据与工具双驱动。
【3D应力敏感度分析拓扑优化】【基于p-范数全局应力衡量的3D敏感度分析】基于伴随方法的有限元分析和p-范数应力敏感度分析(Matlab代码实现)内容概要:本文档围绕“基于p-范数全局应力衡量的3D应力敏感度分析”展开,介绍了一种结合伴随方法与有限元分析的拓扑优化技术,重点实现了3D结构在应力约束下的敏感度分析。文中详细阐述了p-范数应力聚合方法的理论基础及其在避免局部应力过高的优势,并通过Matlab代码实现完整的数值仿真流程,涵盖有限元建模、灵敏度计算、优化迭代等关键环节,适用于复杂三维结构的轻量化与高强度设计。; 适合人群:具备有限元分析基础、拓扑优化背景及Matlab编程能力的研究生、科研人员或从事结构设计的工程技术人员,尤其适合致力于力学仿真与优化算法开发的专业人士; 使用场景及目标:①应用于航空航天、机械制造、土木工程等领域中对结构强度和重量有高要求的设计优化;②帮助读者深入理解伴随法在应力约束优化中的应用,掌握p-范数法处理全局应力约束的技术细节;③为科研复现、论文写作及工程项目提供可运行的Matlab代码参考与算法验证平台; 阅读建议:建议读者结合文中提到的优化算法原理与Matlab代码同步调试,重点关注敏感度推导与有限元实现的衔接部分,同时推荐使用提供的网盘资源获取完整代码与测试案例,以提升学习效率与实践效果。
源码来自:https://pan.quark.cn/s/e1bc39762118 SmartControlAndroidMQTT 点个Star吧~ 如果不会用下载或是下载慢的,可以在到酷安下载:https://www.coolapk.com/apk/com.zyc.zcontrol 本文档还在编写中!!! 被控设备: 按键伴侣ButtonMate 直接控制墙壁开关,在不修改墙壁开关的前提下实现智能开关的效果 zTC1_a1 斐讯排插TC1重新开发固件,仅支持a1版本. zDC1 斐讯排插DC1重新开发固件. zA1 斐讯空气净化器悟净A1重新开发固件. zM1 斐讯空气检测仪悟空M1重新开发固件. zS7 斐讯体重秤S7重新开发固件.(仅支持体重,不支持体脂) zClock时钟 基于esp8266的数码管时钟 zMOPS插座 基于MOPS插座开发固件 RGBW灯 基于ESP8266的rgbw灯泡 zClock点阵时钟 基于ESP8266的点阵时钟 使用说明 此app于设备通信通过udp广播或mqtt服务器通信.udp广播为在整个局域网(255.255.255.255)的10181和10182端口通信.由于udp广播的特性,udp局域网通信不稳定,建议有条件的还是使用mqtt服务器来通信. app设置 在侧边栏点击设置,进入设置页面.可设置mqtt服务器.(此处总是通过UDP连接选项无效!) 设备控制页面 (每总设备页面不同) 界面下方的服务器已连接、服务器已断开 是指app与mqtt服务器连接状态显示.与设备连接状态无关. 右上角,云图标为与设备同步mqtt服务器配置.由于可以自定义mqtt服务器,所以除了需要将手机连入mqtt服务器外,还需要将被控设备连入...
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值