问题记录: java.io.IOException: Unreasonable length = 1050410

本文解决了一个关于Solr重启时遇到的IOException异常问题,涉及到Zookeeper的数据节点大小限制,并提供了具体的解决方案,包括调整JVM参数和Hadoop配置。

java.io.IOException: Unreasonable length = 1050410

问题描述:

solr重启失败, 报错信息如下

java.io.IOException: Unreasonable length = 1050410
	at org.apache.jute.BinaryInputArchive.checkLength(BinaryInputArchive.java:127)
	at org.apache.jute.BinaryInputArchive.readBuffer(BinaryInputArchive.java:92)
	at org.apache.zookeeper.proto.GetDataResponse.deserialize(GetDataResponse.java:54)
	at org.apache.zookeeper.ClientCnxn$SendThread.readResponse(ClientCnxn.java:814)
	at org.apache.zookeeper.ClientCnxnSocketNIO.doIO(ClientCnxnSocketNIO.java:94)
	at org.apache.zookeeper.ClientCnxnSocketNIO.doTransport(ClientCnxnSocketNIO.java:355)
	at org.apache.zookeeper.ClientCnxn$SendThread.run(ClientCnxn.java:1082)

推测结论:

zookeeper服务器端默认读取数据节点大小为1.01M,当zookeeper客户端读取的节点大小超过该值时就会抛出异常信息:java.io.IOException: Unreasonable length = 1256441

注:一般情况下zookeeper服务端数据节点大小也是1M,此处由于之前碰到过节点超过1M时无法写入的问题,所以在zookeeper服务端提前设置了大小为3M。但是zookeeper客户端这边读取大小没有设置大小,所以才会出现客户端读取超大节点时抛出异常信息问题。

解决方案:

在solr高级配置里面添加jvm参数 -Djute.maxbuffer=3145728
在这里插入图片描述

配置完之后重启成功, 但是用hbase-indexer 的jar包同步数据到solr依旧报上面的错误。
需要在hadoop配置文件增加 jute参数
修改/etc/hadoop/config/hadoop-env.sh
在这里插入图片描述

修改完后成功同步, 但是创建collection 会出现部分分片的replication创建失败
错误如下:
在这里插入图片描述

org.apache.solr.client.solrj.impl.HttpSolrServer$RemoteSolrException:Error CREATEing SolrCore 'ecifdb20190325_pty_indv_shard1_replica3': Unable to create core [ecifdb20190325_pty_indv_shard1_replica3] Caused by: Specified config does not exist in ZooKeeper:dir_pty_indv_ecifdb20190325

找了很久没找到解决办法, 后面重启集群解决问题。

Java 中,`Caused by: java.io.IOException` 可能由多种不同的具体异常情况导致,以下是针对不同具体异常信息的解决方法: - **`org.apache.catalina.connector.ClientAbortException: java.io.IOException`**:此异常信息中给出的 “浣犵殑涓绘満涓殑杞欢涓浜嗕竴涓凡寤虹珛鐨勮繛鎺ャ” 疑似表示客户端中断了一个已建立的连接,这种情况可能是客户端主动关闭连接等原因造成。一般需要检查客户端和服务端的网络连接稳定性、客户端程序是否有异常中断的情况。不过引用中未给出明确解决办法。 - **`Caused by: java.io.IOException: Pipe closed`**:解决办法是把 `SftpUtil` 实例化放到循环里面。示例代码如下: ```java for(String string:map.keySet()){ SftpUtil sftp1 = new SftpUtil("xiecheng", "***", "192.168.2.**", 22); InputStream is = new FileInputStream(string); String path1=path+string.split("\\\\")[2]; String name=string.split("\\\\")[3]; sftp1.login(); sftp1.upload(path1,name , is); sftp1.logout(); is.close(); System.out.println(string); } ``` - **`Caused by: java.io.IOException: java.lang.reflect.InvocationTargetException`**:解决方法是在 `pom.xml` 中导入以下依赖: ```xml <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-common</artifactId> <version>2.6.0</version> </dependency> ``` - **`java.io.IOException异常:toDerInputStream拒绝标签类型45...`**:解决办法是在尝试生成 P12 密钥时,需要在钥匙串访问中同时选择私钥和证书 [^4]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值