OutOfMemory的三种情况

本文介绍了Java中几种常见的内存溢出情况,包括PermGen空间溢出、堆溢出及栈溢出,并通过示例代码展示了如何复现这些错误。此外,还提供了一个实际案例,演示了如何使用工具定位并解决由Map过大引起的堆溢出问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

摘自kakaluyi的<如何定位OutOfMemory的根本原因>,有部分修改

java的OutOfMemory有关Exception和可能出现的方式:

A Exception in thread "main" java.lang.OutOfMemoryError: PermGen space
Java代码 复制代码  收藏代码
  1. public static void main(String[] args) {   
  2.     //使用List保持着常量池引用,压制Full GC回收常量池行为   
  3.     List<String> list = new ArrayList<String>();   
  4.     // 10M的PermSize在integer范围内足够产生OOM了   
  5.     int i = 0;   
  6.     while (true) {   
  7.         list.add(String.valueOf(i++).intern());   
  8.     }   
  9. }  
public static void main(String[] args) {
	//使用List保持着常量池引用,压制Full GC回收常量池行为
	List<String> list = new ArrayList<String>();
	// 10M的PermSize在integer范围内足够产生OOM了
	int i = 0;
	while (true) {
		list.add(String.valueOf(i++).intern());
	}
}

永久区溢出
这一部分用于存放Class和Meta的信息,Class在被 Load的时候被放入PermGen space区域(包括常量池: 静态变量),它和存放Instance的Heap区域不同,GC(Garbage Collection)不会在主程序运行期对PermGen space进行清理,所以如果你的APP会LOAD很多CLASS的话,就很可能出现PermGen space错误。

B java.lang.OutOfMemoryError: Java heap space
Java代码 复制代码  收藏代码
  1. public static void main(String[] args) {   
  2.     //使用List保持着常量池引用,压制Full GC回收常量池行为   
  3.     List<String> list = new ArrayList<String>();   
  4.     // 10M的PermSize在integer范围内足够产生OOM了   
  5.     int i = 0;   
  6.     while (true) {   
  7.         list.add(new String(i++));   
  8.     }   
  9. }  
public static void main(String[] args) {
	//使用List保持着常量池引用,压制Full GC回收常量池行为
	List<String> list = new ArrayList<String>();
	// 10M的PermSize在integer范围内足够产生OOM了
	int i = 0;
	while (true) {
		list.add(new String(i++));
	}
}

堆溢出
这部分用于存放类的实例。被缓存的实例(Cache)对象,大的map,list引用大的对象等等,都会保存于此。

C Exception in thread "main" java.lang.StackOverflowError
Java代码 复制代码  收藏代码
  1. public class JavaVMStackSOF {   
  2.     private int stackLength = 1;   
  3.     public void stackLeak() {   
  4.         stackLength++;   
  5.         stackLeak();   
  6.     }   
  7.     public static void main(String[] args) throws Throwable {   
  8.         JavaVMStackSOF oom = new JavaVMStackSOF();   
  9.         try {   
  10.             oom.stackLeak();   
  11.         } catch (Throwable e) {   
  12.             System.out.println("stack length:" + oom.stackLength);   
  13.             throw e;   
  14.         }   
  15.     }   
  16. }  
public class JavaVMStackSOF {
	private int stackLength = 1;
	public void stackLeak() {
		stackLength++;
		stackLeak();
	}
	public static void main(String[] args) throws Throwable {
		JavaVMStackSOF oom = new JavaVMStackSOF();
		try {
			oom.stackLeak();
		} catch (Throwable e) {
			System.out.println("stack length:" + oom.stackLength);
			throw e;
		}
	}
}

栈溢出
这部分用于存放局部变量、方法栈帧信息。栈帧太多,也就是函数调用层级过多时就会出现此异常,检查是否有死递归的情况。

今天碰到个内存溢出的问题,解决过程如下:
    • 首先启动时添加参数-XX:+HeapDumpOnOutOfMemoryError,这样当内存溢出时:
    •        java.lang.OutOfMemoryError: Java heap space

    •        Dumping heap to java_pid5304.hprof ...

  •        Heap dump file created [85357895 bytes in 2.095 secs]
  • 会在eclipse目录下生产内存文件;
  • 使用Memory Analyze分析,查看类使用情况,发现是由Map过大引起;
  • 查看代码中使用到Map的段,分析,解决问题;


问题over。
### Swin Transformer 论文精读:Hierarchical Vision Transformer Using Shifted Windows Swin Transformer 是一种基于视觉的分层 Transformer 模型,其核心创新在于通过 **Shifted Window-based Self-Attention** 实现了线性计算复杂度,同时能够生成多尺度特征表示。这种方法在图像分类、目标检测和语义分割等任务中取得了显著的性能提升 [^2]。 #### 核心架构概述 Swin Transformer 的整体结构分为多个阶段(Stage),每个阶段包含多个 Swin Transformer Block。这些块使用 **窗口化自注意力机制** 和 **移位窗口策略** 来实现高效计算并捕捉长距离依赖关系。 - **分层特征提取** 类似于传统卷积神经网络(如 ResNet),Swin Transformer 采用分层设计来逐步降低空间分辨率并增加通道维度。这种设计允许模型从局部到全局地构建特征表示。 - **窗口划分与移位窗口机制** 在每个 Swin Transformer Block 中,输入特征图被划分为不重叠的窗口,并在这些窗口内执行自注意力计算。为了增强跨窗口的信息交互,在下一个 Block 中对窗口进行移位操作(Shifted Windows)。这种方式既减少了计算量,又保持了模型对全局信息的感知能力 [^1]。 ```python # 窗口划分伪代码示例 def window_partition(x, window_size): B, H, W, C = x.shape # 将图像划分为多个窗口 x = tf.reshape(x, shape=[B, H // window_size, window_size, W // window_size, window_size, C]) windows = tf.transpose(x, perm=[0, 1, 3, 2, 4, 5]) return tf.reshape(windows, shape=[-1, window_size, window_size, C]) # 移位窗口伪代码 def shifted_window_attention(x, window_size, shift_size): B, H, W, C = x.shape # 对特征图进行滚动操作以实现窗口移位 x = tf.roll(x, shift=(-shift_size, -shift_size), axis=(1, 2)) return window_partition(x, window_size) ``` #### 自注意力机制优化 传统的 Vision TransformerViT)在整个图像上应用自注意力机制,导致计算复杂度为 $O(n^2)$,其中 $n$ 是图像块的数量。而 Swin Transformer 通过将注意力限制在局部窗口内,将复杂度降低到 $O(n)$,使其适用于高分辨率图像处理 [^4]。 此外,移位窗口机制确保了相邻窗口之间的信息流动,从而避免了局部注意力带来的信息隔离问题。这种设计使得 Swin Transformer 能够在保持计算效率的同时实现全局建模能力。 #### 实验结果与性能优势 Swin Transformer 在多个视觉任务中表现出色: - **ImageNet 分类任务**:Swin-Tiny、Swin-Small、Swin-Base 和 Swin-Large 四种变体均在 ImageNet-1K 上实现了优于其他 Transformer 主干网络的 Top-1 准确率。 - **COCO 目标检测**:在 COCO 数据集上,Swin Transformer 在 Faster R-CNN 框架下达到了 SOTA 性能,mAP 超过之前的最佳方法。 - **ADE20K 语义分割**:在 ADE20K 数据集上,Swin Transformer 作为编码器也取得了领先的 mIoU 指标 [^2]。 #### 消融实验分析 论文还进行了详细的消融研究,验证了以下几个关键组件的有效性: - **窗口大小的影响**:较大的窗口有助于捕捉更广泛的上下文,但会增加计算开销。 - **移位窗口的重要性**:实验证明,移位机制可以显著提升模型性能,尤其是在长距离依赖任务中。 - **不同层级的设计**:通过对比不同层级深度和通道配置,论文展示了如何平衡精度与效率 [^3]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值