本案例使用flume监控源头文件夹下的文件,当有新的文件时,自动采集文件数据到kafka。
[root@cy event_source]# pwd
/root/kb18/event_source
[root@cy event_source]# head -n2 ./users.csv
user_id,locale,birthyear,gender,joinedAt,location,timezone
3197468391,id_ID,1993,male,2012-10-02T06:40:55.524Z,Medan Indonesia,480
[root@cy event_source]# wc -l users.csv
38210 users.csv
#为source、channel、sink起名
users.sources = usersSource
users.channels = usersChannel
users.sinks = usersSink
#指定我们的source数据收集策略
users.sources.usersSource.type = spooldir
users.sources.usersSource.spoolDir = /opt/kb18tmp/sqooplog/users
users.sources.usersSource.deserializer