之前做的集群的虚拟机大小是50G,很快就被占满了,而给虚拟机根目录扩容又很麻烦,弄了一圈,没弄好,然后又做了个200G的集群,但集群...今天发现又出问题了.
hadoop122: ERROR: Unable to write in /tmp. Aborting.
NIFI蹦了_hadoop也蹦了_集群磁盘又满了_奇怪了_刚做了个200G的虚拟机_接着磁盘就又满了
最开始的时候是nifi报错,刷新总是报错,说
java.net.SocketException: 打开的文件过多错误
这个错误,这个错误,之前一个博文已经说了,因此,后来把linux打开文件数的限制给打开了,
配置了:
# 在文件末尾中增加下面内容
#es soft nofile 65536
#es hard nofile 65536
* soft nofile 65536
* hard nofile 65536
# vim /etc/security/limits.conf
[root