拆分map进度1/3

使用了二叉搜索树
其实也叫二叉查找树。

性质

一棵树,每一个节点的左儿子的值都严格小于这个点的值,右儿子的值都严格大于这个点的值。

作用

比如一道题:
给定 NNN 个元素 xxx 及其对应值 kkkMMM 次询问每次一个整数 yyy,求其对应值,若没有,返回 000
−1018≤x,y≤1018-10^{18}\le x,y\le10^{18}1018x,y1018
这时候有一种暴力思想,用两个数组分别存元素和其对应值,每次查询 O(N)O(N)O(N)找一遍。
那如果再加一个限制条件。
1≤N,M≤1061\le N,M\le 10^61N,M106
这时候就只能使用 O(1)O(1)O(1)O(log⁡N)O(\log N)O(logN) 的查询了。
map 直接过了
这时候,二叉搜索树的单调性就起作用了。
在数值大小均衡的情况下,二叉搜索树的时间复杂度就是 O(log⁡N)O(\log N)O(logN),如果输入的序列严格单调,时间复杂度就退化成了 O(N)O(N)O(N)
说了这么多,怎么做?
上面说到的二叉搜索树的性质,只要我们建一棵二叉树,在插入过程中围护其性质就行了。

struct node{
	int x,k,l=0,r=0,flag=0;
}f[N];
int cnt=1;
void insert(int p,int x,int k){
	if(!f[p].flag){//元素没有出现过
		f[p].x=x,f[p].k=k;
		f[p].flag=1;
	}
	else if(x<f[p].x){//比当前点小
		if(!f[f[p].l].flag)f[p].l=++cnt;
		insert(f[p].l,x,k);
	}
	else if(x>f[p].x){//比当前点大
		if(!f[f[p].r].flag)f[p].r=++cnt;
		insert(f[p].r,x,k);
	}
	else f[p].k=k;
}
int search(int p,int x){
	if(!f[p].flag)return 0;//没有
	if(x<f[p].x)return search(f[p].l,x);
	if(x>f[p].x)return search(f[p].r,x);
	return f[p].k;
}
import java.io.IOException; import java.util.StringTokenizer; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import org.apache.hadoop.util.GenericOptionsParser; public class WordCount { /* * MapReduceBase类:实现Mapper和Reducer接口的基类 * Mapper接口: * WritableComparable接口:实现WritableComparable的类可以相互比较。所有被用作key的类要实现此接口。 */ public static class TokenizerMapper extends Mapper<Object, Text, Text, IntWritable>{ /* *LongWritable,IntWritable,Text是Hadoop中实现的用于封装Java数据类型的类,这些类实现了WritableComparable接口, *都能够被串行化,便于在分布式环境中进行数据交换,可以视为long,int,String数据类型的替代。 */ private final static IntWritable one = new IntWritable(1); private Text word = new Text();//Text实现了BinaryComparable类,可以作为key值 /* * Mapper接口中的map方法: * void map(K1 key, V1 value, OutputCollector<K2,V2> output, Reporter reporter) * 映射一个单个的输入<K1,V1>对到一个中间输出<K2,V2>对 * 中间输出对不需要和输入对是相同的类型,输入对可以映射到0个或多个输出对。 * OutputCollector接口:收集Mapper和Reducer输出的<K,V>对。 * OutputCollector接口的collect(k, v)方法:增加一个(k,v)对到output * Reporter 用于报告整个应用的运行进度 */ public void map(Object key, Text value, Context context) throws IOException, InterruptedException { /** 原始数据(以test1.txt为例): *tale as old as time true as it can be beauty and the beast map阶段,数据如下形式作为map的输入值:key为偏移量 <0 tale as old as time> <21 world java hello> <39 you me too> */ /** * 解析(Spliting)后以得到键值对<K2,V2>(仅以test1.txt为例) * 格式如下:前者是键值,后者数字是值 * tale 1 * as 1 * old 1 * as 1 * time 1 * true 1 * as 1 * it 1 * can 1 * be 1 * beauty 1 * and 1
10-28
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值