Flume采集服务器log信息处理后上传阿里云MaxComputer

在采集服务器用户log信息  上传到 MacComputer 中  分享下自己的经验

大数据计算服务(MaxCompute,原名ODPS)是一种快速、完全托管的TB/PB级数据仓库解决方案。MaxCompute向用户提供了完善的数据导入方案以及多种经典的分布式计算模型,能够更快速的解决用户海量数据计算问题,有效降低企业成本,并保障数据安全

我建议在开始项目之前一定要仔细的查看官方文档,以避免浪费很多时间,或者导致很简单的的问题提工单

我使用的是flume采集日志 信息到DataHup归档到 MaxComputer  

官方给出的 方式有好几种  可以根据业务不同使用不同的采集 方式 ,如 Fluentd插件 Logstash插件 等

Flume 采集log信息   官网案列

准备工作

1)拥有Linux系统。

2)拥有一定的开发经验。

3)拥有阿里云官网实名认证账号,并且创建好账号Access Key。

教程任务

1)安装JDK和Flume,开通MaxCompute和Datahub。

2)下载并部署Datahub Sink插件。

3)创建需要上传的本地文件,创建Datahub Topic。

4)配置Flume作业配置文件。

5)启动Flume,将数据上传至Datahub。

6)配置Connector将数据归档至MaxCompute。

实施前注意

看完上边官网案列,大概流程或许已经明白,我们在实际操作中可能会遇到很多的问题

1 我们应该需要什么样的上传格式,案列中使用的逗号" , " 来 区分字段是否符合我们的需要

2 flume 配置文件中不得出现中文注释,我们要确保正确的 access  ID和access key 均是字符串形式 ,endpoint可以在文档中查询

3 使用dataconnector 自动归档,MaxComputer表字段必须 与DataHup 一致

我们要在datahup中 创建 project  > > 创建 topic , 如果需要归档到 maxcomputer中建议新建topic时候从maxcomputer 导入,所以要先在maxcomputer 中新建 表(建议分区表),如果使用非自定义分区,建表时候还需按文档添加分区字段  >>  在 datahup 中使用maxcomputer 中的表导入,此时注意创建分区,分区选项提供三种方式,自选 >>  创建dataconnector 即可自动离线归档

顺序     maxcomputer按照分区字段和内容字段新建 表  >> 在datahup 中按maxcomputer创建topic 表,分区,及关联  >>  

按照官网配置教程或许 配置 flume  在运行会出现内存溢出的错误 可以在  ${FLUME_HOME}/flume/bin/flume-ng 进行 调整

  

数据实时处理:

如果我们的日志信息 与我们要存表的字段不符,我们可以通过datahup SDK 进行数据的实时处理, 阿里云 DataHup SDK

建议在看完文档 后实施开发时候 参考github

PythonSDK 中订阅数据获取Cursor,可以通过四种方式获取:OLDEST, LATEST, SYSTEM_TIME, SEQUENCE

其中OLDEST 是是指向有效数据中最久远的游标,LATEST指向最新的游标

建议用前两种,第四种官方没有具体实践,无论使用那种方式 ,获取的数据都不重复,主要注意的是 limit_num参数 。

订阅最多返回1000条数据,其他详见 while True 实例代码。

可以对数据进行 订阅后实时处理 并上传到DataHup 离线归档到 MaxComputer上,DataHup Git

 

PS :   阿里云PyODPS 技术支持(公共云)钉钉群: 11701793

一、项目简介 本项目教程以国内电商巨头实际业务应用场景为依托,同时以阿里云ECS服务器为技术支持,紧跟大数据主流场景,对接企业实际需求,对电商数仓的常见实战指标进行了详尽讲解,让你迅速成长,获取最前沿的技术经验。 二、项目架构 版本框架:Flume、DateHub、DataWorks、MaxCompute、MySql以及QuickBI等; Flume:大数据领域被广泛运用的日志采集框架; DateHub:类似于统大数据解决方案中Kafka的角色,提供了一个数据队列功能。对于离线计算,DataHub除了供了一个缓冲的队列作用。同时由于DataHub提供了各种与其他阿里云上下游产品的对接功能,所以DataHub又扮演了一个数据的分发枢纽工作; 据上和下载通道,提供SQL及MapReduce等多种计算分析服务,同时还提供完善的安全解决方案; DataWorks:是基于MaxCompute计算引擎,从工作室、车间到工具集都齐备的一站式大数据工厂,它能帮助你快速完成数据集成、开发、治理、服务、质量、安全等全套数据研发工作; QuickBI & DataV:专为云上用户量身打造的新一代智能BI服务平台。 三、项目场景 数仓项目广泛应用于大数据领域,该项目技术可以高度适配电商、金融、医疗、在线教育、媒、电信、交通等各领域; 四、项目特色 本课程结合国内多家企业实际项目经验。从集群规模的确定到框架版本选型以及服务器选型,手把手教你从零开始搭建基于阿里云服务器的大数据集群。采用阿里云ECS服务器作为数据平台,搭建高可用的、高可靠的Flume数据采集通道,运用阿里云DateHub构建中间缓冲队列并担任数据分发枢纽将数据推送至阿里自主研发的DataWorks对数据进行分层处理,采用MaxCompute作为处理海量数据的方案,将计算结果保存至MySQL并结合阿里的QuickBI工作做最终数据展示。
在FinalShell这个工具中,Flume是一个用于收集、处理和移动大量日志数据的分布式系统。如果你想要通过Flume采集的数据存储到MySQL数据库中,你需要按照以下步骤操作: 1. **安装配置Flume**: - 安装Flume,并在你的系统上配置Source(数据源),如JDBC Source(如果数据来自数据库)、Kafka或syslog等。 - 配置Sink(数据接收端),比如JDBC Sink,用于将数据插入MySQL。 2. **创建Flume配置文件**: - 编辑`conf/flume.conf`或相应的agent配置文件,添加一个新的Channel和Sink。例如,你可以创建一个`jdbcsink`节点连接MySQL,使用`jdbc` sink type: ```yaml <agents> <agent id="mysqlAgent" name="mysqlAgent"> <sources> <source type="jdbc"> <sourceName>mysqlSource</sourceName> <!-- 配置JDBC Source --> <connectionURL>jdbc:mysql://your_host:port/your_database</connectionURL> <user>your_username</user> <password>your_password</password> </source> </sources> <sinks> <sink type="jdbcsink" name="mysqlSink"> <!-- 配置JDBC Sink, 数据表名等 --> <url>jdbc:mysql://your_host:port/your_database</url> <table>your_table_name</table> <column>...</column> <!-- 根据需要指定列名 --> </sink> </sinks> <channels> <channel type="memory" name="mysqlChannel"/> </channels> <flows> <flow> <from>mysqlSource</from> <to>mysqlSink</to> </flow> </flows> </agent> </agents> ``` 3. **启动Flume**: - 启动配置中的Flume agent (`bin/start-flume.sh mysqlAgent`)。 4. **数据输**: - 当Flume开始运行并接收到数据后,它会自动尝试将数据从Source送到Sink,并最终保存到MySQL数据库。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值