图一是我导入的第一张表,最大数据量也就2万多条,hibernate关闭二级缓存勉强能够导入,导入图二的7万多条数据时,就会在执行hibernate的save()停在2万多条.
具体配置:
1.修改spring的管理hibernate的配置
<bean id="webDataSource" class="com.alibaba.druid.pool.DruidDataSource"
</span>init-method="init" destroy-method="close">
</span><property name="url" value="${web.jdbc.connection.url}" />
</span><property name="username" value="${web.jdbc.connection.username}" />
</span><property name="password" value="${web.jdbc.connection.password}" />
</span><!-- 配置初始化大小、最小、最大 -->
</span><property name="initialSize" value="1" />
</span><property name="minIdle" value="1" />
</span><property name="maxActive" value="20" />
</span><!-- 配置获取连接等待超时的时间 -->
</span><property name="maxWait" value="6000000" />
</span><!-- 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒 -->
</span><property name="timeBetweenEvictionRunsMillis" value="60000" />