一行代码,我优化掉了1G内存占用

这里一行代码,指的是:String.intern()的调用,为了调用这一行代码,也写了几十行额外的代码。

背景

我们有一个项目,采用了全内存缓存机制。一方面是为了追求卓越的RT,另一方面是数据量确实很小,标准的4C8G容器处理起来绰绰有余。可是突然有一天,预发环境,疯狂报警FullGC,定位了一下原因,原来是这个缓存变得太大了。

正文

我们通常会把数据量级在百条左右的配置项加载到内存里,近期一个新需求,导致配置数据量膨胀到了十万级,一口气加载到了内存里,自然造成了内存占用的上涨。但是,经过分析,这些数据的信息熵并不是很高。大面积的json其实是在存储有限种排列组合的字符串,但是这些字符串被反序列化框架以 new String 的方式重复加载到了堆空间内。

突然想到了常量池这个概念,打算把它用起来,这样在不改变本次设计的情况下,可以无业务入侵地解决这个问题。首先明确,我们使用的fastjson序列化工具,是不会对“value”做常量池处理的。这也很好理解,因为正常情况下,value代表着无限可能,把每一个扑面而来的字符串都放到常量池内,显然会对系统带来更糟糕的影响。不过,我们很清楚自己的业务场景,特定value是有限的,不需要被Young GC的,因此,我们需要把这些特定的“value”,常量化,即显式调用 String.intern() 方法。

说干就干,我们找到可以用来写 String.intern() 的“切点”。

fastjson会使用恰当的 ObjectDeserializer 来反序列化一个字段,同时 @JSONField(deserializeUsing = xxx.class) 注解也给了我们自定义反序列化器的空间。因此,我们打算自定义一个反序列化器,来调用 intern 方法。

public class StringPoolDeserializer implements ObjectDeserializer {

    @SuppressWarnings("unchecked")
    @Override
    public <T> T deserialze(DefaultJSONParser parser, Type type, Object o) {

        if (!type.equals(String.class)) {
            throw new JSONException("StringPoolDeserializer can only deserialize String");
        }

        return (T) ((String) parser.parse(o)).intern();
    }

    @Override
    public int getFastMatchToken() {
        return 0;
    }
}

经此优化,已经干掉了800M堆内存,并且元空间几乎没有上涨,毕竟我们的数据信息熵很低,都是重复的。

图片

不过,剩余大小还是大于预期,后来发现,这个做法无法处理Map<String, String>类型的成员里面的value。

进一步,再看一下Map是如何被处理的。fastjson内部实现了 MapDeserializer 用来反序列化类型为Map的字段。不过这个反序列化器实现比较复杂,核心机制所在方法都被final修饰,不适合使用继承重写替换的方式解决问题。后来,发现代码里存在一条唯一的value。

map的通路,我们可以通过干预map的类型,*重写对应的put方法,从而找到合适的 String.intern() 调用点。

*p.s. 除put方法外,Map的 putAll, “compute家族”,甚至有参构造方法等,也有向Map添加元素的能力,他们并不复用put方法,而是复用一个被final关键字修饰的方法  ( putVal )。严格来说,由于无法重写 putVal方法,这些方法也应该被相应地重写,但考虑到  MapDeserializer 只调用了put方法,其余方法实现更复杂,故此只重写了put方法。

图片

我的对策,直接重写put方法,简单粗暴。并且把这个StringPoolMap替换原来的JavaBean成员的HashMap类型声明:​​​​​​​

public class StringPoolMap extends HashMap<String, String> {

    @Override
    public String put(String key, String value) {
        
        if (key != null) {
            key = key.intern();
        }
        
        if (value != null) {
            value = value.intern();
        }
        
        return super.put(key, value);
    }
}

至此,能通过trick优化的地方已经全被优化掉了,内存占用从800M干到了619M,相较最初的1.6G+,成功干掉了1G的空间。

写在最后

这个问题的本质,其实不是一个 String.intern() 的问题,而是低信息熵没有被很好地压缩。二期迭代,会从数据结构的设计上,重新思考并解决这个问题。

本次优化,就当是把“八股”简单地在生产环境中实战一下,顺便读了读fastjson的源码,收获良多。

多写一点,String.intern()的实现

收获了入职以来最多的一次ATA上和大家的互动,受宠若惊,正好最近在读jdk(openjdk)源码,顺便展开一下吧。

String.intern()实际上是一个native方法,表示的是:

‒尝试把this放进一个池子里,如果里面内容相等的东西已经存在了,则返回那个已经存在的地址。

‒如果里面的东西不存在,则放进去,并返回新的地址。

找一下对应的源码:

String.intern()对应的C源码​​​​​​​

#include "jvm.h"
#include "java_lang_String.h"

JNIEXPORT jobject JNICALL
Java_java_lang_String_intern(JNIEnv *env, jobject this)
{
    return JVM_InternString(env, this);
}

里面实际上调用了一个 JVM_InternString,把this这个Object传了进去。

JVM_InternString​​​​​​​

#include "jvm.h"
#include "java_lang_String.h"

JNIEXPORT jobject JNICALL
Java_java_lang_String_intern(JNIEnv *env, jobject this)
{
    return JVM_InternString(env, this);
}

StringTable​​​​​​​

oop StringTable::intern(Handle string_or_null_h, const jchar* name, int len, TRAPS) {
  
  unsigned int hash = java_lang_String::hash_code(name, len);

  // 分别在shared table 和local table中查找有无存在的string
  // 找到则快速返回
  
  oop found_string = lookup_shared(name, len, hash);
  if (found_string != nullptr) {
    return found_string;
  }
  if (_alt_hash) {
    hash = hash_string(name, len, true);
  }
  found_string = do_lookup(name, len, hash);
  if (found_string != nullptr) {
    return found_string;
  }

  // 没有找到的话,则创建并塞入
  return do_intern(string_or_null_h, name, len, hash, THREAD);
}

<think>好的,我现在需要帮用户逐行分析他们提供的Python代码,并解释每行的功能及在整体中的作用。用户还提到要参考之前的引用内容,但看起来那些引用主要涉及Python的解释执行机制、代码块处理、if__name__ =='__main__'的作用以及整数缓存机制。不过用户当前的请求是关于图像处理和多尺度Retinex的代码分析,所以可能需要将注意力集中在代码的结构和功能上。首先,我需要通读整个代码,理解其整体结构。代码是一个PyQt5的应用程序,实现了图像处理功能,包括多尺度Retinex增强和语义分割。主类ImageProcess继承自QMainWindow和Ui_MainWindow,包含了各种方法,如打开图像、增强、分割和保存结果等。接下来,我需要逐行分析,从导入的库开始。例如,sys用于系统相关操作,PyQt5的各个模块用于GUI构建,cv2用于图像处理,torch用于深度学习模型。然后,主类的初始化部分,加载预训练的FCN模型,定义图像转换操作。然后,每个方法的功能需要详细说明。比如dakaituxiang方法使用QFileDialog打开图像文件,读取图像并显示。duochidu方法调用Retinex算法进行增强,yuyifenge使用FCN模型进行语义分割,生成二值图和前景图。baocun方法保存结果,tuichuxitong处理退出逻辑。 在分析过程中,需要注意代码中的关键函数,如MultiScaleRetinex和gauss_blur,这些是实现Retinex算法的核心部分。同时,模型加载和推理部分涉及PyTorch的使用,需要解释transform的作用以及模型输出的处理。 还需要注意代码中的图像格式转换,例如OpenCV默认使用BGR,而PyQt的QImage使用RGB,因此在显示时需要转换颜色空间。此外,paintEvent方法虽然被注释了,但可能原本用于绘制背景,需要说明其当前状态。在解释过程中,要结合用户提供的引用内容,比如引用[3]中提到的if__name__ =='__main__'的作用,确保在代码执行时正确启动应用程序。同时,引用[4]中的整数缓存机制可能不直接相关,但可以提及Python的特性如何影响变量比较,不过在此代码中可能不涉及。最后,生成相关问题时要围绕代码的功能、实现细节、性能优化和应用场景展开,例如询问Retinex算法的原理、PyQt5的事件处理、模型的选择与训练等。需要注意用户要求使用LaTeX格式的数学表达式,例如在解释算法时提及的数学公式,如高斯滤波的公式或Retinex的多尺度计算。同时,引用标识要自然地添加到相关解释的末尾,确保符合用户的格式要求。 整个过程中要保持回答的结构清晰,逐步分解代码的每个部分,确保用户能够理解每行代码的作用及其在整体功能中的意义。同时,检查是否有遗漏的关键点,如信号槽连接、UI组件的交互等,但由于代码中的UI部分可能由Qt Designer生成的Ui_MainWindow类处理,可能不需要详细分析,除非用户特别询问。</think>### 基于PyQt5的图像处理系统代码逐行解析 #### 一、系统架构 ```python import sys from fenge import Ui_MainWindow from PyQt5.QtWidgets import * from PyQt5 import QtCore, QtGui, QtWidgets from PyQt5.QtCore import * from PyQt5.QtGui import * import cv2 as cv import numpy as np import os import torch import torchvision.transforms as T from torchvision.models.segmentation import fcn_resnet50 from PIL import Image ``` 1. **系统依赖**: - `sys`:提供Python解释器交互功能 - `PyQt5`:构建GUI界面[^1] - `cv2`:图像处理核心库 - `torch`:深度学习框架,加载预训练模型$fcn\_resnet50$ 2. **模型初始化**: ```python self.model = fcn_resnet50(pretrained=True).eval() self.transform = T.Compose([ T.ToTensor(), T.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]) ]) ``` - `fcn_resnet50`:全卷积网络模型,用于语义分割[^2] - `transform`:定义图像预处理流程,包含归一化操作$(\mu=0.485, \sigma=0.229)$ #### 二、核心方法解析 ##### 1. 图像加载模块 ```python def dakaituxiang(self): filename, _ = QFileDialog.getOpenFileName(self, '打开图片') if filename: self.img_path = filename self.captured = self.cv_imread(str(filename)) rows, cols, channels = self.captured.shape bytesPerLine = channels * cols cv_img = cv.cvtColor(self.captured, cv.COLOR_RGB2BGR) QImg = QImage(cv_img.data, cols, rows, bytesPerLine, QImage.Format_RGB888) self.axes_yuantu.setPixmap(QPixmap.fromImage(QImg).scaled( self.axes_yuantu.size(), Qt.KeepAspectRatio, Qt.SmoothTransformation)) ``` - `QFileDialog`:创建文件选择对话框[^1] - `cv_imread`:自定义图像读取方法,处理中文路径 - `QImage`:将OpenCV图像转换为Qt可显示格式,实现$BGR \rightarrow RGB$转换 ##### 2. 多尺度Retinex增强 ```python def MultiScaleRetinex(self, img, sigmas=[15,80,250], weights=None): # 高斯核计算 k_1D = np.exp(-k_1D**2/(2*sigma**2)) # 高斯函数$G(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-x^2/(2\sigma^2)}$ # 多尺度融合 r += (np.log(img+1) - np.log(self.gauss_blur(img,sigma)+1)) * weights[i] ``` - 实现Retinex理论:$R(x,y) = \sum_{i}w_i(log(I) - log(I*G_{\sigma_i}))$ - 高斯核参数$\sigma$控制不同尺度细节提取 ##### 3. 语义分割模块 ```python def yuyifenge(self): image = Image.fromarray(self.zengqiang) input_tensor = self.transform(image).unsqueeze(0) with torch.no_grad(): output = self.model(input_tensor)['out'][0] pred_mask = output.argmax(0).byte().cpu().numpy() ``` - `unsqueeze(0)`:增加batch维度,符合模型输入要求$[B,C,H,W]$ - `argmax(0)`:在通道维度取最大值,生成分割掩膜$M(x,y)=argmax_c(score_c(x,y))$ #### 三、关键算法分析 ##### 1. 高斯模糊实现 ```python def gauss_blur_original(self, img, sigma): row_filter = self.get_gauss_kernel(sigma,1) t = cv.filter2D(img,-1,row_filter[...,None]) return cv.filter2D(t,-1,row_filter.reshape(1,-1)) ``` - 分离卷积实现二维高斯滤波:$G(x,y)=G(x)*G(y)$ - 时间复杂度$O(2Nk)$ vs 直接卷积$O(Nk^2)$($N$为像素数,$k$为核大小) ##### 2. 自适应直方图裁剪 ```python for i in range(msr.shape[-1]): v,c = np.unique((msr[...,i]*100).astype('int'), return_counts=True) low_v, up_v = sort_v[[low_ind, up_ind]] / 100 msr[...,i] = np.clip(msr[...,i], low_v, up_v) ``` - 动态调整对比度范围,避免过增强 - 基于直方图分布确定裁剪阈值$T_{low}, T_{high}$ #### 四、系统运行流程 $$流程图$$ ```mermaid graph TD A[启动应用] --> B[加载图像] B --> C{选择操作} C -->|增强| D[执行MSR算法] C -->|分割| E[运行FCN模型] D --> F[显示增强结果] E --> G[生成语义掩膜] F --> H[保存结果] G --> H ``` #### 五、技术亮点 1. **跨框架集成**: - OpenCV与PyQt5的$BGR \leftrightarrow RGB$转换 - PyTorch模型与Qt事件循环的兼容性处理 2. **内存优化**: - 使用`torch.no_grad()`关闭梯度计算,减少显存占用 - NumPy数组操作避免多余拷贝 3. **交互设计**: - 保持原始图像比例显示:`Qt.KeepAspectRatio` - 平滑缩放:`Qt.SmoothTransformation`
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值