Spark Core 之PV,UV

本文详细介绍如何使用Apache Spark进行PV和UV统计,以及访问topN分析。通过具体代码示例,展示了SparkConf配置、SparkContext创建、数据读取、映射、聚合等关键步骤。适用于希望深入了解Spark数据处理流程的开发者。

PV 代码如下

//todo:创建sparkconf,设置appName
    //todo:setMaster("local[2]")在本地模拟spark运行 这里的数字表示 使用2个线程
    val sparkConf = new SparkConf().setAppName("PV").setMaster("local[2]")
    //todo:创建SparkContext
    val sc = new SparkContext(sparkConf)
    //todo:读取数据
    val file = sc.textFile(args(0))
//    //todo:将一行数据作为输入,输出("pv",1)
//    val pvAndOne = file.map(x=>("pv",1))
//    //todo:聚合输出
//    val totalPV = pvAndOne.reduceByKey(_+_)

    //方式二
    val totalPV1 = file.map(x => (s"pv${Random.nextInt(file.getNumPartitions)}",1)).reduceByKey(_ + _)

    val totalPV = totalPV1.map(tuple => ("pv", tuple._2)).reduceByKey(_ + _)

    totalPV.foreach(println)
    sc.stop()

UV 代码如下

 //todo:构建SparkConf和 SparkContext
    val sparkConf = new SparkConf().setAppName("UV").setMaster("local[2]")
    val sc = new SparkContext(sparkConf)
    //todo:读取数据
    val file = sc.textFile(args(0))
    //todo:对每一行分隔,获取IP地址
    val ips = file.map(_.split(" ")).map(x=>x(0))
    //todo:对ip地址进行去重,最后输出格式 ("UV",1)
    val uvAndOne = ips.distinct().map(x=>("UV",1))
    //todo:聚合输出
    val totalUV = uvAndOne.reduceByKey(_+_)
    totalUV.foreach(println)
    //todo:数据结果保存
//    totalUV.saveAsTextFile("d:\\data\\out")
    sc.stop()

访问topN

val sparkConf: SparkConf = new SparkConf().setAppName("TopN").setMaster("local[2]")
    val sc: SparkContext = new SparkContext(sparkConf)
    sc.setLogLevel("WARN")
    //读取数据
    val file: RDD[String] = sc.textFile(args(0))
    //将一行数据作为输入,输出(来源URL,1)
    val refUrlAndOne: RDD[(String, Int)] = file.map(_.split(" ")).filter(_.length>10).map(x=>(x(10),1))
    //聚合 排序-->降序
    val result: RDD[(String, Int)] = refUrlAndOne.reduceByKey(_+_).sortBy(_._2,false)
    //通过take取topN,这里是取前5名
    val finalResult: Array[(String, Int)] = result.take(5)
    println(finalResult.toBuffer)

    sc.stop()

内容概要:本文介绍了一个基于MATLAB实现的无人机三维路径规划项目,采用蚁群算法(ACO)与多层感知机(MLP)相结合的混合模型(ACO-MLP)。该模型通过三维环境离散化建模,利用ACO进行全局路径搜索,并引入MLP对环境特征进行自适应学习与启发因子优化,实现路径的动态调整与多目标优化。项目解决了高维空间建模、动态障碍规避、局部最优陷阱、算法实时性及多目标权衡等关键技术难题,结合并行计算与参数自适应机制,提升了路径规划的智能性、安全性工程适用性。文中提供了详细的模型架构、核心算法流程及MATLAB代码示例,涵盖空间建模、信息素更新、MLP训练与融合优化等关键步骤。; 适合人群:具备一定MATLAB编程基础,熟悉智能优化算法与神经网络的高校学生、科研人员及从事无人机路径规划相关工作的工程师;适合从事智能无人系统、自动驾驶、机器人导航等领域的研究人员; 使用场景及目标:①应用于复杂三维环境下的无人机路径规划,如城市物流、灾害救援、军事侦察等场景;②实现飞行安全、能耗优化、路径平滑与实时避障等多目标协同优化;③为智能无人系统的自主决策与环境适应能力提供算法支持; 阅读建议:此资源结合理论模型与MATLAB实践,建议读者在理解ACO与MLP基本原理的基础上,结合代码示例进行仿真调试,重点关注ACO-MLP融合机制、多目标优化函数设计及参数自适应策略的实现,以深入掌握混合智能算法在工程中的应用方法。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值