FlinkAPI(二)

一、Transformation操作
1,map、flapmap、filter

public class transTest1_Base {
    public static void main(String[] args) throws Exception{
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);

        DataStream<String> dataStream = env.readTextFile("C:\\Users\\Administrator\\IdeaProjects\\FlinkTutorial\\src\\main\\resources\\hello.txt");

        //map操作,实现MapFunction,重写map方法
        DataStream<Integer> out = dataStream.map(new MapFunction<String, Integer>() {
            @Override
            public Integer map(String value) throws Exception {
                return value.length();
            }
        });

        //flatmap操作
        DataStream<String> outFlat = dataStream.flatMap(new FlatMapFunction<String, String>() {
            @Override
            public void flatMap(String value, Collector<String> out) throws Exception {
                String[] strs = value.split(" ");
                for (String str: strs){
                    out.collect(str);
                }

            }
        });

        //filter
        DataStream<String> outFilter = dataStream.filter(new FilterFunction<String>() {
            @Override
            public boolean filter(String value) throws Exception {
                return value.startsWith("h");
            }
        });

        out.print("map");
        outFlat.print("FlatMap");
        outFilter.print("Filter");
        env.execute();

    }
}

2,keyBy
将DataStream变成KeyedStream,之后才能使用sum等聚合操作。
1)
sum()/min()/max()/minBy()/maxBy() 通过这些算子对KeyedStream的每一个支流做聚合。

    public static void main(String[] args){
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        DataStream<SensorReading> dataStream = env.fromCollection(Arrays.asList( new SensorReading("s1", 1728493489L, 37.1),
                new SensorReading("s2", 1728493439L, 36.1),
                new SensorReading("s3", 1728493489L, 38.0),
                new SensorReading("s2", 1728493439L, 36.1),
                new SensorReading("s3", 1728493431L, 36.6),
                new SensorReading("s3", 1728493423L, 36.3)
        ));
        
        KeyedStream<SensorReading, Tuple> keyedStream = dataStream.keyBy("id");
        //java8 支持 lamda表达式
        //KeyedStream<SensorReading, String> keyedStream1 = dataStream.keyBy(data -> data.getId());

        keyedStream.maxBy("temperature").print("max");
    }

3,Reduce算子

package com.cys.transformation;

import com.cys.apitest.beans.SensorReading;
import org.apache.flink.api.common.functions.ReduceFunction;
import org.apache.flink.api.java.tuple.Tuple;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.datastream.KeyedStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;

public class TransTest3_Reduce {
    public static void main(String[] args) throws Exception{
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        DataStream<String> dataStream = env.readTextFile("filePath");
        DataStream<SensorReading> sensorData = dataStream.map(line -> {
           String[] fields = line.split(",");
           return new SensorReading(fields[0], new Long(fields[1]), new Double(fields[2]));
        });

        //keyBy
        KeyedStream<SensorReading, Tuple> keyedStream = sensorData.keyBy("id");

        DataStream result = keyedStream.reduce(new ReduceFunction<SensorReading>() {
            @Override
            public SensorReading reduce(SensorReading value1, SensorReading value2) throws Exception {
                return new SensorReading(value1.getId(), value2.getTimestamp(), Math.max(value1.getTemperature(),value2.getTemperature()));
            }
        });

/*        //lamda相比scala,还是需要写return
        keyedStream.reduce((value1, value2) -> {
            return new SensorReading(value1.getId(), value2.getTimestamp(), Math.max(value1.getTemperature(),value2.getTemperature()));
        });*/

        env.execute();
    }
}

4,Split和Select && Connection和CoMap &&Union

package com.cys.transformation;

import com.cys.apitest.beans.SensorReading;
import com.cys.apitest.source.Source_Selfdefinition;
import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.api.java.tuple.Tuple3;
import org.apache.flink.streaming.api.collector.selector.OutputSelector;
import org.apache.flink.streaming.api.datastream.ConnectedStreams;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.datastream.SplitStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.co.CoMapFunction;
import org.apache.flink.streaming.api.functions.source.SourceFunction;

import java.util.Collection;
import java.util.Collections;
import java.util.HashMap;
import java.util.Random;

public class TransTest4_MultipleStream {
    public static void main(String[] args) throws Exception{
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        DataStream<SensorReading> dataStream = env.addSource(new Source_Selfdefinition.MySensorSource());

        //1.通过split算子给数据打标签,区分不同数据流,返回SplitStream类型
        SplitStream<SensorReading> split = dataStream.split(new OutputSelector<SensorReading>() {
            @Override
            public Iterable<String> select(SensorReading sensorReading) {
                return sensorReading.getTemperature() > 60 ? Collections.singletonList("high"):Collections.singletonList("low");
            }
        });

        //通过SplitStream的select算子,将不同标签数据提取出来,返回DataStream类型
        DataStream<SensorReading> highTempStream = split.select("high");
        DataStream<SensorReading> lowTempStream = split.select("low");
        DataStream<SensorReading> allTemp = split.select("high", "low");


        highTempStream.print("high");
        lowTempStream.print("low");


/*        2.通过connect连接两个流,并且两个流类型可以不向同;
         比如,先将高温流转为二元组,再高温流(二元组)与低温流(SensorReading)合并。
        */
        //将高温流通过map转为二元组
        DataStream<Tuple2<String, Double>> warningStream = highTempStream.map(new MapFunction<SensorReading, Tuple2<String, Double>>() {
            @Override
            public Tuple2<String, Double> map(SensorReading value) throws Exception {

                return new Tuple2<>(value.getId(), value.getTemperature());
            }
        });
        //将高温流与低温流通过connect算子做联结,返回ConnectedStream<Tuple,SensorReading>类型
        ConnectedStreams<Tuple2<String, Double>, SensorReading> connectedStreams = warningStream.connect(lowTempStream);

        //将ConnectedStreams数据流内的两个子流,使用CoMapFunction合并,
        DataStream<Object> result = connectedStreams.map(new CoMapFunction<Tuple2<String, Double>, SensorReading, Object>() {

            @Override
            //接收高温流(第一个子流)并做数据处理,返回类型可按需要定义,最终接收类型需要是两个map方法的父类(Object)
            public Object map1(Tuple2<String, Double> stringDoubleTuple2) throws Exception {
                return new Tuple3<>(stringDoubleTuple2.f0, stringDoubleTuple2.f1, "high temp");
            }

            //使用公共父类Object接收tuple2,tuple3
            @Override
            public Object map2(SensorReading sensorReading) throws Exception {
                return new Tuple2<>(sensorReading.getId(), "normal");
            }
        });

        result.print();


        // 3, Union 合并多条数据流,数据类型必须一致。
        highTempStream.union(lowTempStream,allTemp);

        env.execute();
    }

    
    //自定义sourceFunction
    public static class MySensorSource implements SourceFunction<SensorReading> {

        //定义标志位,控制数据生成和停止run
        private boolean flag = true;

        @Override
        public void run(SourceContext<SensorReading> sourceContext) throws Exception {
            //定义各一随机数生成器
            Random random = new Random();

            //设置10个传感器的初试温度
            HashMap<String, Double> sensorTempMap = new HashMap<String, Double>();
            for(int i = 0; i < 10; i++){
                sensorTempMap.put("sensor_" + (i+1), 60 + random.nextGaussian() * 20);
            }

            while (flag){
                for(String sensorId: sensorTempMap.keySet()){
                    Double newtemp = sensorTempMap.get(sensorId) + random.nextGaussian();
                    sensorTempMap.put(sensorId, newtemp);
                    sourceContext.collect(new SensorReading(sensorId, System.currentTimeMillis(), newtemp));
                }
                Thread.sleep(1000L);

            }
        }

        @Override
        public void cancel() {

        }
    }
}

【电动车】基于多目标优化遗传算法NSGAII的峰谷分时电价引导下的电动汽车充电负荷优化研究(Matlab代码实现)内容概要:本文围绕“基于多目标优化遗传算法NSGA-II的峰谷分时电价引导下的电动汽车充电负荷优化研究”展开,利用Matlab代码实现优化模型,旨在通过峰谷分时电价机制引导电动汽车有序充电,降低电网负荷波动,提升能源利用效率。研究融合了多目标优化思想与遗传算法NSGA-II,兼顾电网负荷均衡性、用户充电成本和充电满意度等多个目标,构建了科学合理的数学模型,并通过仿真验证了方法的有效性与实用性。文中还提供了完整的Matlab代码实现路径,便于复现与进一步研究。; 适合人群:具备一定电力系统基础知识和Matlab编程能力的高校研究生、科研人员及从事智能电网、电动汽车调度相关工作的工程技术人员。; 使用场景及目标:①应用于智能电网中电动汽车充电负荷的优化调度;②服务于峰谷电价政策下的需求侧管理研究;③为多目标优化算法在能源系统中的实际应用提供案例参考; 阅读建议:建议读者结合Matlab代码逐步理解模型构建与算法实现过程,重点关注NSGA-II算法在多目标优化中的适应度函数设计、约束处理及Pareto前沿生成机制,同时可尝试调整参数或引入其他智能算法进行对比分析,以深化对优化策略的理解。
一、基础信息 数据集名称:可回收材料目标检测数据集 图片数量: - 训练集:7,701张图片 - 验证集:733张图片 - 测试集:367张图片 - 总计:8,801张图片 分类类别: - carton(纸板):常见可回收包装材料 - metal(金属):如铝罐和铁制品等可回收金属 - papel(纸):纸张类可回收材料 - plastico(塑料):塑料瓶和容器等可回收塑料 - vidrio(玻璃):玻璃瓶和罐等可回收玻璃 标注格式:YOLO格式,包含边界框和类别标签,适用于目标检测任务 数据格式:JPEG图片,来源于实际场景 、适用场景 智能垃圾回收系统开发: 数据集支持目标检测任务,帮助构建自动识别和分类可回收材料的AI模型,用于智能垃圾桶或回收站,提升垃圾处理效率。 环保与可持续发展应用: 集成至环保设备或移动应用,提供实时材料识别功能,促进垃圾分类和资源回收,支持绿色倡议。 学术与工业研究: 支持计算机视觉在环境科学和废物管理领域的研究,推动AI技术在环保中的创新应用。 教育与培训: 可用于学校或社区项目,作为垃圾分类教育的视觉辅助工具,提高公众环保意识。 三、数据集优势 精准标注与多样性: 标注采用YOLO格式,确保边界框定位准确,类别覆盖五种常见可回收材料,具有高度实用性。 数据规模合理: 拥有超过8,000张图片,训练集、验证集和测试集分布均衡,支持有效的模型训练和评估。 任务适配性强: 标注兼容主流深度学习框架(如YOLO系列),可直接用于目标检测模型开发,加速应用部署。 环保价值突出: 专注于可回收材料识别,有助于减少垃圾污染、促进循环经济,具有显著的社会和环境效益。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值