今天给大家分享下 使用flume采集日志,直接将日志导入对应的hive表中,然后使用hive进行日志分析
下面就以apache access log为例
具体使用hive的外部表还是普通的表,个人决定哈
我这里就以普通表来讲解,首先我们创建一个hive表(注:此表我是从hive官网上直接拷贝修改了下表名,哈哈)
1,首先进入hive 命令行模式
我创建了一个自己的数据库
create database hive_1208;
然后使用该数据库:
use hive_1208;
直接执行建表语句:
CREATE TABLE td_log_analyze(
host STRING,
identity STRING,
user STRING,
time STRING,
request STRING,
status STRING,
size STRING,
referer STRING,
agent STRING)
partitioned by (dt string)
ROW FORMAT SERDE 'org.apache.hadoop.hive.contrib.serde2.RegexSerDe'
WITH SERDEPROPERTIES (
"input.regex"