elasticsearch的堆内存过低,启动kibana报Data too large问题

在安装Kibana时遇到启动错误,问题源于Elasticsearch的堆内存设置过低,导致数据传输过程中触发了circuit_breaking_exception。分析显示Es-header连接数据卡顿,具体表现为 Datatoolarge 错误。解决此问题需要调整Elasticsearch的JVM配置,增大-Xms和-Xmx的值。通过停用ES,修改config目录下的jvm.options文件,增加堆内存大小,可以成功解决启动报错并改善数据传输性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

elasticsearch的堆内存过低,启动kibana报Data too large问题

提示:这里简述项目相关背景:
本人再安装es工具kiana的时候启动报错,es-header连接数据卡顿。


问题描述

提示:这里描述项目中遇到的问题:

例如:数据传输过程中数据不时出现丢失的情况,偶尔会丢失一部分数据
APP 中接收数据代码:

FATAL  [circuit_breaking_exception] [parent] Data too large,data for [<HTTP_Request>] would be [250592200/238.9mb],which is larger than the limit of [246546432/235.1mb],real usage: [250592200/238.9mb],new bytes reserved: [0/0b],usages [request=16512/16.1kb,fIElddata=11330/11kb,in_flight_requests=0/0b,accounting=7160235/6.8mb],with { bytes_wanted=250592200 & bytes_limit=246546432 & durability="PERMANENT" } :: {"path":"/.kibana","query":{},"statusCode":429,"response":"{\"error\":{\"root_cause\":[{\"type\":\"circuit_breaking_exception\",\"reason\":\"[parent] Data too large,data for [<HTTP_Request>] would be [250592200/238.9mb],which is larger than the limit of [246546432/235.1mb],accounting=7160235/6.8mb]\",\"bytes_wanted\":250592200,\"bytes_limit\":246546432,\"durability\":\"PERMANENT\"}],\"type\":\"circuit_breaking_exception\",\"durability\":\"PERMANENT\"},\"status\":429}"}


原因分析:

提示:这里填写问题的分析:

es设置的堆内存最大值和初始堆内存太小


解决方案:

提示:这里填写该问题的具体解决方案:
把es集群先停掉
修改 jvm.options 文件,文件路径:es下的config目录下

增大文件下的-Xms和-Xmx即可
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值