FATAL: Spool Directory source source1: { spoolDir: /usr/local/logs }: Uncaught exception in SpoolDir

本文介绍了一个关于Flume日志收集系统的配置案例,并详细记录了一次配置过程中遇到的异常及其解决方法。异常主要源于文件名重复使用导致的系统错误,通过清理特定目录下的文件和重启Flume服务得以解决。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

FATAL: Spool Directory source source1: { spoolDir: /usr/local/logs }: Uncaught exception in SpoolDirectorySource thread. Restart or reconfigure Flume to continue processing.

flume-conf.properties的配置如下:

#agent1表示代理名称
agent1.sources=source1
agent1.sinks=sink1
agent1.channels=channel1
#配置source1
agent1.sources.source1.type=spooldir
agent1.sources.source1.spoolDir=/usr/local/logs
agent1.sources.source1.channels=channel1
agent1.sources.source1.fileHeader = false
agent1.sources.source1.interceptors = i1
agent1.sources.source1.interceptors.i1.type = timestamp
#配置channel1
agent1.channels.channel1.type=file
agent1.channels.channel1.checkpointDir=/usr/local/logs_tmp_cp
agent1.channels.channel1.dataDirs=/usr/local/logs_tmp
#配置sink1
agent1.sinks.sink1.type=hdfs
agent1.sinks.sink1.hdfs.path=hdfs://spark01:9000/logs
agent1.sinks.sink1.hdfs.fileType=DataStream
agent1.sinks.sink1.hdfs.writeFormat=TEXT
agent1.sinks.sink1.hdfs.rollInterval=1
agent1.sinks.sink1.channel=channel1
agent1.sinks.sink1.hdfs.filePrefix=%Y-%m-%d

然后
本地文件夹:mkdir /usr/local/logs
HDFS文件夹:hdfs dfs -mkdir /logs

启动flume : flume-ng agent -n agent1 -c conf -f /usr/local/flume/conf/flume-conf.properties -Dflume.root.logger=DEBUG,console


在传文件的时候出现如下错误:
17/08/05 10:50:40 ERROR source.SpoolDirectorySource: FATAL: Spool Directory source source1: { spoolDir: /usr/local/logs }: Uncaught exception in SpoolDirectorySource thread. Restart or reconfigure Flume to continue processing.
java.lang.IllegalStateException: File name has been re-used with different files. Spooling assumptions violated for /usr/local/logs/install.log.COMPLETED
at org.apache.flume.client.avro.ReliableSpoolingFileEventReader.rollCurrentFile(ReliableSpoolingFileEventReader.java:376)
at org.apache.flume.client.avro.ReliableSpoolingFileEventReader.retireCurrentFile(ReliableSpoolingFileEventReader.java:328)
at org.apache.flume.client.avro.ReliableSpoolingFileEventReader.readEvents(ReliableSpoolingFileEventReader.java:257)
at org.apache.flume.source.SpoolDirectorySource$SpoolDirectoryRunnable.run(SpoolDirectorySource.java:228)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:471)
at java.util.concurrent.FutureTask.runAndReset(FutureTask.java:304)
at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$301(ScheduledThreadPoolExecutor.java:178)
at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
at java.lang.Thread.run(Thread.java:745)

解决办法

删除/usr/local/logs/ 的文件
删除/usr/local/logs_tmp_cp 文件夹
删除/usr/local/logs_tmp 文件夹

然后重新启动flume就可以正常运行了
在CentOS 7上,当尝试启动PostgreSQL服务器时收到“FATAL: data directory '/home/pg' has invalid permissions”的错误,通常意味着该目录没有正确的读写权限,特别是对于PostgreSQL服务账户。下面是解决这个问题的步骤: 1. **确认文件权限**: 使用`ls -ld /home/pg`命令查看该目录及其内容的权限。正常情况下,data目录应该有`drwxr-xr-x`这样的权限,其中第一个`d`表示目录,接下来的三个`r-x`分别代表所有者读、写和执行权限,`x`代表组和其他用户的执行权限。 2. **修改权限**: 如果权限不足,使用`sudo chmod`命令调整权限。例如,你可以将所有者的权限设为`rw-rw----`(所有者读写,同组读,其他用户无权): ``` sudo chmod 750 /home/pg ``` 或者只保留执行权限给服务账户: ``` sudo chown -R postgres:postgres /home/pg sudo chmod 755 /home/pg ``` 3. **检查owner**: 确保数据目录的所有者是PostgreSQL的服务账户(通常是`postgres`或`pgsql`),如果不是,可以使用`chown`命令更正: ``` sudo chown -R postgres:postgres /home/pg ``` 4. **测试权限**: 更改权限后,再次尝试启动PostgreSQL看是否仍然报错。如果没有问题,说明权限已经修复。 5. **设置环境变量**: 如果你还收到了关于环境变量的问题,可能需要编辑postgresql.conf文件,确保`shared_preload_libraries`包含`postgis`模块,并且`data_directory`指向正确的路径。 如果你能成功启动,但仍存在问题,可能是其他因素导致的,这时候需要进一步排查。
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值