【大数据处理架构】1.spark streaming

本文深入解析了Apache Spark,一种高效的集群运算环境,与Hadoop的不同之处在于其更快的速度(官方声称快近100倍)。文章详细介绍了Spark的高级接口和工具,包括用于SQL处理的Spark SQL、机器学习的MLlib、图处理的GraphX以及实时计算的Spark Streaming。此外,还提供了构建Spark环境的步骤,包括安装Scala、Scala环境配置以及如何在本地启动Spark集群。

1. spark 是什么?

>Apache Spark 是一个类似hadoop的开源快速集群运算环境  与后者不同的是,spark更快(官方的说法是快近100倍)。提供高层JAVA,Scala,PythonI ,R API接口.并且提tools:Spark SQL for SQL 处理结构化数据, MLlib for machine learning, GraphX for graph processing, and Spark Streaming.



2. spark streaming 

Spark Streaming: 构建在Spark上处理Stream数据的框架,基本的原理是将Stream数据分成小的时间片断(几秒),以类似batch批量处理的方式来处理这小部分数据。Spark Streaming构建在Spark上,一方面是因为Spark的低延迟执行引擎(100ms+),虽然比不上专门的流式数据处理软件,也可以用于实时计算,另一方面相比基于Record的其它处理框架(如Storm),一部分窄依赖的RDD数据集可以从源数据重新计算达到容错处理目的。



3. build spark: 

    1) 安装 scala 

          scala 语言很简洁,属于函数式语言。其简洁度令人吃惊(代码量只有java的十分之一)值得学习。

         http://www.scala-lang.org/download/

          下载,解压 :tar -zxvf filename  loaction

          修改环境变量:vim /etc/profile  在PATH后加入scala解压后文件位置。

           >  export SCALA_HOME = $/opt/scala/scala-2.11.7

           >  export SPARK_HOME=$opt/spark/spark-1.4.1
           >  export PATH=$SCALA_HOME/bin:$PATH:$SPARK_HOME/bin

                        

           update( very important or you may failed to change the path)  > source /etc/profile

          检测:  scala -version

2)安装 spark streaming

         下载这个版本: spark-1.4.1-bin-hadoop2.6.tgz   (一定不要选source code 需要自己编译)

http://spark.apache.org/downloads.html

          解压: tar -zxvf filemname location  (文件名太长善用 tab键)

3)几个命令 

启动Spark

在Spark运行之前,首先需要让Spark集群启动,如果需要用到hadoop的HDFS的话,也需要把HDFS启动起来。

>cd /docker/opt/spark-1.4.0-bin-hadoop2.6/sbin (注意根据自己的安装目录定)
       ./stop-master.sh
    以及   ./start-master.sh
>cd /docker/opt/spark-1.4.0-bin-hadoop2.6/sbin; 
     ./stop-slave.sh; 
     ./start-slave.sh spark://XXXXX
>bin/spark-shell.sh   启动spark shell
 在SPARK_HOME/sbin目录:

  • sbin/start-master.sh-在机器上执行脚本,启动 master .
  • sbin/start-slaves.sh- 启动conf/slaves中指定的每一个slave .
  • sbin/start-all.sh- 同时启动master 以及 上面所说文件中指定的slave
  • sbin/stop-master.sh- 停止通过bin/start-master.sh脚本启动的master
  • sbin/stop-slaves.sh- 停止通过bin/start-slaves.sh启动的slave .
  • sbin/stop-all.sh- 停止上述的两种启动脚本启动的master和slave
运行:
    想在想在spark上跑自己的代码,需要我们打包成jar ,使用 spark-streaming的命令。但是需要用到sbt的tool,我们下一节再介绍。
参考:1. http://spark.apache.org/docs/latest/index.html
2. http://blog.youkuaiyun.com/yunlong34574/article/details/39098815
3.http://www.oschina.net/translate/spark-standalone?cmp

【完美复现】面向配电网韧性提升的移动储能预布局与动态调度策略【IEEE33节点】(Matlab代码实现)内容概要:本文介绍了基于IEEE33节点的配电网韧性提升方法,重点研究了移动储能系统的预布局与动态调度策略。通过Matlab代码实现,提出了一种结合预配置和动态调度的两阶段优化模型,旨在应对电网故障或极端事件时快速恢复供电能力。文中采用了多种智能优化算法(如PSO、MPSO、TACPSO、SOA、GA等)进行对比分析,验证所提策略的有效性和优越性。研究不仅关注移动储能单元的初始部署位置,还深入探讨其在故障发生后的动态路径规划与电力支援过程,从而全面提升配电网的韧性水平。; 适合人群:具备电力系统基础知识和Matlab编程能力的研究生、科研人员及从事智能电网、能源系统优化等相关领域的工程技术人员。; 使用场景及目标:①用于科研复现,特别是IEEE顶刊或SCI一区论文中关于配电网韧性、应急电源调度的研究;②支撑电力系统在灾害或故障条件下的恢复力优化设计,提升实际电网应对突发事件的能力;③为移动储能系统在智能配电网中的应用提供理论依据和技术支持。; 阅读建议:建议读者结合提供的Matlab代码逐模块分析,重点关注目标函数建模、约束条件设置以及智能算法的实现细节。同时推荐参考文中提及的MPS预配置与动态调度上下两部分,系统掌握完整的技术路线,并可通过替换不同算法或测试系统进一步拓展研究。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值