Storm Trident 项目

本文介绍如何使用 Apache Storm 的 DRPC 组件实现数据查询服务,包括销售额和订单数量的统计,并探讨了使用 HBase 作为 Trident 状态存储的方案。

事务:运用IPartitionedTridentSpout
DRPC:Web端通过DRPC获得结果数据
topN:按销售额排行
基于Hbase存储的Trident state:支持Topo重启时不丢数据,也可支撑Web端读数据

数据获得实现
通过开源Storm-kafka项目提供
采用Storm-kafka 项目中提供的TransactionalTridentKafkaSpout

开发思路
1、业务逻辑处理,bolt中实现;
2、数据落地格式可更加前台HighCharts的需要而定,有时需要特别为HighCharts的数据格式来存储落地数据,如项目三中就会这样。
采用内存+磁盘方式避免断电、重启等会造成数据丢失的问题。
3、必须前后台分离,有利于稳定性;
4、Web端开发思路相对简单,就是长链接读数据,推数据到HighCharts
5、HighCharts开发,很多实例及代码,可以现学现用。

优点:1、前台、后台分离,重启维护互不影响;
2、Storm重启不会影响结果数据,不影响HighCharts图表展示;
3、Tomcat重启不会影响数据处理;
4、前台后台数据传输通过Hbase 或 DRPC,注意DRPC是通过服务访问,稳定性不如DB。


package cn.wh.trident;
import storm.kafka.BrokerHosts;
import storm.kafka.StringScheme;
import storm.kafka.ZkHosts;
import storm.kafka.trident.TransactionalTridentKafkaSpout;
import storm.kafka.trident.TridentKafkaConfig;
import storm.trident.TridentState;
import storm.trident.TridentTopology;
import storm.trident.operation.builtin.Count;
importstorm.trident.operation.builtin.FirstN;
import storm.trident.operation.builtin.MapGet;
import storm.trident.operation.builtin.Sum;
import storm.trident.testing.MemoryMapState;
import backtype.storm.Config;
import backtype.storm.LocalCluster;
import backtype.storm.LocalDRPC;
import backtype.storm.spout.SchemeAsMultiScheme;
import backtype.storm.tuple.Fields;
import backtype.storm.utils.Utils;
import cn.wh.storm.KafkaProperties;

publicclass TridentTopo {
/**
* @param args
*/
publicstaticvoid main(String[] args) {
BrokerHosts zkHosts = new ZkHosts(KafkaProperties.zkConnect);
String topic = "track";
TridentKafkaConfig config = new TridentKafkaConfig(zkHosts, topic);

config.forceFromStart = false; //测试时用true,上线时必须改为false

//输入格式
config.scheme = new SchemeAsMultiScheme(new StringScheme());
config.fetchSizeBytes = 100 ; //batch size
LocalDRPC drpc = new LocalDRPC();
TransactionalTridentKafkaSpout spout = newTransactionalTridentKafkaSpout(config) ;

TridentTopology topology = new TridentTopology() ;
//销售额
TridentState amtState = topology.newStream("spout", spout)
.parallelismHint(3)
.each(new Fields(StringScheme.STRING_SCHEME_KEY),new OrderSplit("\\t"), new Fields("order_id","order_amt","create_date","province_id"))
.shuffle()
.groupBy(new Fields("create_date","province_id"))
.persistentAggregate(new MemoryMapState.Factory(), new Fields("order_amt"), new Sum(), new Fields("sum_amt"));

topology.newDRPCStream("getOrderAmt", drpc)
.each(new Fields("args"), new Split(" "), new Fields("arg"))
.each(new Fields("arg"), new SplitBy("\\:"), new Fields("create_date","province_id"))
.groupBy(new Fields("create_date","province_id"))
.stateQuery(amtState, new Fields("create_date","province_id"), new MapGet(), new Fields("sum_amt"))
// .applyAssembly(new FirstN(5, "sum_amt", true))
;
//订单数
TridentState orderState = topology.newStream("orderSpout", spout)
.parallelismHint(3)
.each(new Fields(StringScheme.STRING_SCHEME_KEY),new OrderSplit("\\t"), new Fields("order_id","order_amt","create_date","province_id"))
.shuffle()
.groupBy(new Fields("create_date","province_id"))
.persistentAggregate(new MemoryMapState.Factory(), new Fields("order_id"), new Count(), new Fields("order_num"));

topology.newDRPCStream("getOrderNum", drpc)
.each(new Fields("args"), new Split(" "), new Fields("arg"))
.each(new Fields("arg"), new SplitBy("\\:"), new Fields("create_date","province_id"))
.groupBy(new Fields("create_date","province_id"))
.stateQuery(orderState, new Fields("create_date","province_id"), new MapGet(), new Fields("order_num"))
// .applyAssembly(new FirstN(5, "order_num", true))
;
Config conf = new Config() ;
conf.setDebug(false);
LocalCluster cluster = new LocalCluster() ;
cluster.submitTopology("myTopo", conf, topology.build());

while(true){
// System.err.println("销售额:"+drpc.execute("getOrderAmt", "2014-08-19:1 2014-08-19:2 2014-08-19:3 2014-08-19:4 2014-08-19:5")) ;
System.err.println("订单数:"+drpc.execute("getOrderNum", "2014-08-19:1 2014-08-19:2 2014-08-19:3 2014-08-19:4 2014-08-19:5")) ;
Utils.sleep(5000);
}
}
}


DRPC方式基于hbase state方式
package cn.wh.stormtest;
import hbase.state.HBaseAggregateState;
import hbase.state.TridentConfig;
import kafka.productor.KafkaProperties;
import storm.kafka.BrokerHosts;
import storm.kafka.StringScheme;
import storm.kafka.ZkHosts;
import storm.kafka.trident.TransactionalTridentKafkaSpout;
import storm.kafka.trident.TridentKafkaConfig;
import storm.trident.TridentState;
import storm.trident.TridentTopology;
import storm.trident.operation.builtin.Count;
import storm.trident.operation.builtin.FilterNull;
import storm.trident.operation.builtin.FirstN;
import storm.trident.operation.builtin.MapGet;
import storm.trident.operation.builtin.Sum;
import storm.trident.state.StateFactory;
import storm.trident.testing.MemoryMapState;
import backtype.storm.Config;
import backtype.storm.LocalCluster;
import backtype.storm.LocalDRPC;
import backtype.storm.StormSubmitter;
import backtype.storm.generated.AlreadyAliveException;
import backtype.storm.generated.InvalidTopologyException;
import backtype.storm.generated.StormTopology;
import backtype.storm.spout.SchemeAsMultiScheme;
import backtype.storm.tuple.Fields;
import backtype.storm.utils.Utils;

public class TridentTopo {

public static StormTopology builder(LocalDRPC drpc)
{
TridentConfig tridentConfig = new TridentConfig("state");
StateFactory state = HBaseAggregateState.transactional(tridentConfig);

BrokerHosts zkHosts = new ZkHosts(KafkaProperties.zkConnect);
String topic = "track";
TridentKafkaConfig config = new TridentKafkaConfig(zkHosts, topic);
config.forceFromStart = false; //测试时用true,上线时必须改为false
config.scheme = new SchemeAsMultiScheme(new StringScheme());
config.fetchSizeBytes = 100 ;//batch size

TransactionalTridentKafkaSpout spout = new TransactionalTridentKafkaSpout(config) ;

TridentTopology topology = new TridentTopology() ;
//销售额
TridentState amtState = topology.newStream("spout", spout)
.parallelismHint(3)
.each(new Fields(StringScheme.STRING_SCHEME_KEY),new OrderAmtSplit("\\t"), new Fields("order_id","order_amt","create_date","province_id","cf"))
.shuffle()
.groupBy(new Fields("create_date","cf","province_id"))
.persistentAggregate(state, new Fields("order_amt"), new Sum(), new Fields("sum_amt"));
// .persistentAggregate(new MemoryMapState.Factory(), new Fields("order_amt"), new Sum(), new Fields("sum_amt"));

topology.newDRPCStream("getOrderAmt", drpc)
.each(new Fields("args"), new Split(" "), new Fields("arg"))
.each(new Fields("arg"), new SplitBy("\\:"), new Fields("create_date","cf","province_id"))
.groupBy(new Fields("create_date","cf","province_id"))
.stateQuery(amtState, new Fields("create_date","cf","province_id"), new MapGet(), new Fields("sum_amt"))
.each(new Fields("sum_amt"),new FilterNull())
.applyAssembly(new FirstN(5, "sum_amt", true))
;

//订单数
TridentState orderState = topology.newStream("orderSpout", spout)
.parallelismHint(3)
.each(new Fields(StringScheme.STRING_SCHEME_KEY),new OrderNumSplit("\\t"), new Fields("order_id","order_amt","create_date","province_id","cf"))
.shuffle()
.groupBy(new Fields("create_date","cf","province_id"))
.persistentAggregate(state, new Fields("order_id"), new Count(), new Fields("order_num"));
// .persistentAggregate(new MemoryMapState.Factory(), new Fields("order_id"), new Count(), new Fields("order_num"));

topology.newDRPCStream("getOrderNum", drpc)
.each(new Fields("args"), new Split(" "), new Fields("arg"))
.each(new Fields("arg"), new SplitBy("\\:"), new Fields("create_date","cf","province_id"))
.groupBy(new Fields("create_date","cf","province_id"))
.stateQuery(orderState, new Fields("create_date","cf","province_id"), new MapGet(), new Fields("order_num"))
.each(new Fields("order_num"),new FilterNull())
// .applyAssembly(new FirstN(5, "order_num", true))
;
return topology.build() ;
}
/**
* @param args
*/
public static void main(String[] args) {
// TODO Auto-generated method stub
LocalDRPC drpc = new LocalDRPC();
Config conf = new Config() ;
conf.setNumWorkers(5);
conf.setDebug(false);
if (args.length > 0) {
try {
StormSubmitter.submitTopology(args[0], conf, builder(null));
} catch (AlreadyAliveException e) {
e.printStackTrace();
} catch (InvalidTopologyException e) {
e.printStackTrace();
}
}else{
LocalCluster localCluster = new LocalCluster();
localCluster.submitTopology("mytopology", conf, builder(drpc));
}
// Utils.sleep(60000);
// while (true) {
// System.err.println("销售额:"+drpc.execute("getOrderAmt", "2014-09-13:cf:amt_3 2014-09-13:cf:amt_2 2014-09-13:cf:amt_1 2014-09-13:cf:amt_7 2014-09-13:cf:amt_6 2014-09-13:cf:amt_5 2014-09-13:cf:amt_4 2014-09-13:cf:amt_8")) ;
// Utils.sleep(5000);
// }
/**
* [["2014-08-19:1 2014-08-19:2 2014-08-19:3 2014-08-19:4 2014-08-19:5","2014-08-19:1","2014-08-19","1",821.9000000000001],
* ["2014-08-19:1 2014-08-19:2 2014-08-19:3 2014-08-19:4 2014-08-19:5","2014-08-19:2","2014-08-19","2",631.3000000000001],
* ["2014-08-19:1 2014-08-19:2 2014-08-19:3 2014-08-19:4 2014-08-19:5","2014-08-19:3","2014-08-19","3",240.7],
* ["2014-08-19:1 2014-08-19:2 2014-08-19:3 2014-08-19:4 2014-08-19:5","2014-08-19:4","2014-08-19","4",340.4],
* ["2014-08-19:1 2014-08-19:2 2014-08-19:3 2014-08-19:4 2014-08-19:5","2014-08-19:5","2014-08-19","5",460.8]]
*/


}

}



----------------------------DRPC Client-------------
import backtype.storm.LocalDRPC;
import backtype.storm.utils.DRPCClient;
import backtype.storm.utils.Utils;

public class TridentDRPCclient {
public static void main(String[] args) {

DRPCClient client = new DRPCClient("192.168.1.107", 3772);
// LocalDRPC client = new LocalDRPC();
try {
while (true)
{
System.err.println("销售额:"+client.execute("getOrderAmt", "2014-09-13:cf:amt_5 2014-09-13:cf:amt_8")) ;
System.err.println("订单数:"+client.execute("getOrderNum", "2014-09-13:cf:amt_1 2014-09-13:cf:amt_2")) ;
Utils.sleep(5000);
}
} catch (Exception e) {
e.printStackTrace() ;
}

}
}


【无人机】基于改进粒子群算法的无人机路径规划研究[和遗传算法、粒子群算法进行比较](Matlab代码实现)内容概要:本文围绕基于改进粒子群算法的无人机路径规划展开研究,重点探讨了在复杂环境中利用改进粒子群算法(PSO)实现无人机三维路径规划的方法,并将其与遗传算法(GA)、标准粒子群算法等传统优化算法进行对比分析。研究内容涵盖路径规划的多目标优化、避障策略、航路点约束以及算法收敛性和寻优能力的评估,所有实验均通过Matlab代码实现,提供了完整的仿真验证流程。文章还提到了多种智能优化算法在无人机路径规划中的应用比较,突出了改进PSO在收敛速度和全局寻优方面的优势。; 适合人群:具备一定Matlab编程基础和优化算法知识的研究生、科研人员及从事无人机路径规划、智能优化算法研究的相关技术人员。; 使用场景及目标:①用于无人机在复杂地形或动态环境下的三维路径规划仿真研究;②比较不同智能优化算法(如PSO、GA、蚁群算法、RRT等)在路径规划中的性能差异;③为多目标优化问题提供算法选型和改进思路。; 阅读建议:建议读者结合文中提供的Matlab代码进行实践操作,重点关注算法的参数设置、适应度函数设计及路径约束处理方式,同时可参考文中提到的多种算法对比思路,拓展到其他智能优化算法的研究与改进中。
标题中的"EthernetIP-master.zip"压缩文档涉及工业自动化领域的以太网通信协议EtherNet/IP。该协议由罗克韦尔自动化公司基于TCP/IP技术架构开发,已广泛应用于ControlLogix系列控制设备。该压缩包内可能封装了协议实现代码、技术文档或测试工具等核心组件。 根据描述信息判断,该资源主要用于验证EtherNet/IP通信功能,可能包含测试用例、参数配置模板及故障诊断方案。标签系统通过多种拼写形式强化了协议主题标识,其中"swimo6q"字段需结合具体应用场景才能准确定义其技术含义。 从文件结构分析,该压缩包采用主分支命名规范,符合开源项目管理的基本特征。解压后预期可获取以下技术资料: 1. 项目说明文档:阐述开发目标、环境配置要求及授权条款 2. 核心算法源码:采用工业级编程语言实现的通信协议栈 3. 参数配置文件:预设网络地址、通信端口等连接参数 4. 自动化测试套件:包含协议一致性验证和性能基准测试 5. 技术参考手册:详细说明API接口规范与集成方法 6. 应用示范程序:展示设备数据交换的标准流程 7. 工程构建脚本:支持跨平台编译和部署流程 8. 法律声明文件:明确知识产权归属及使用限制 该测试平台可用于构建协议仿真环境,验证工业控制器与现场设备间的数据交互可靠性。在正式部署前开展此类测试,能够有效识别系统兼容性问题,提升工程实施质量。建议用户在解压文件后优先查阅许可协议,严格遵循技术文档的操作指引,同时需具备EtherNet/IP协议栈的基础知识以深入理解通信机制。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值