Python Flask 实现 HTML 文件压缩,9 级压缩

本博客围绕Python Flask框架下的HTML文件压缩展开。介绍了使用第三方库Flask - compress实现压缩的方法,包括配合render_template()函数压缩、实例化时的参数设置、模块原理及compress.init_app()的详细参数表,还提及了测试时的注意事项。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本博客详细为你解释 Python Flask 框架下的 HTML 文件压缩内容,其第三方模块也可用在其他框架中。
本案例是基于 Python Flask 进行搭建,所以需要提前搭建一个 Flask 项目环境,有 app.py 文件和 templates/index.html 文件即可。

🧩 第三方库 Flask-compress

Flask 框架可以使用第三方库 Flask-compress 来实现 HTML 压缩。

安装 Flask-compress

pip install Flask-compress

在 Flask 应用中使用 Flask-compress:

from flask_compress import Compress

app = Flask(__name__)
compress = Compress()
compress.init_app(app)

🎯 配合 render_template() 函数实现压缩

在使用 Flask-compress 和 render_template() 函数时,只需要确保在使用 render_template() 函数之前已经初始化了 Flask-compress。

但是这里测试的时候需要注意 Flask-compress 默认使用等级为 6 的压缩,并且默认不会对小于 150 bytes 的响应进行压缩。这意味着,如果响应的大小小于 150 bytes,Flask-compress 将不会对其进行压缩。所以测试 html 文件需要大一些。

除此之外,Flask-compress 默认对 html 使用的压缩类型是 br,这里还需要进行一下配置。

app = Flask(__name__)
app.config['COMPRESS_ALGORITHM'] = 'gzip'

代码编写完毕,接下来我们查看一下各种情况下的数据对比吧。

在这里插入图片描述
上图中的 Content-EncodingVary 是使用压缩之后新增的响应参数。

🎯 Flask-compress 实例化时的其他参数

如果想使用其他压缩类型,可以使用 Flask-compress 的 Compress 类来进行设置。

COMPRESS_REGISTER

COMPRESS_REGISTER 参数默认为 True, 表示对所有视图返回的数据进行压缩,可以将其设置为 False,然后再对应视图上添加 @compress.compressed() 装饰器进行单视图压缩。

COMPRESS_MIMETYPES

COMPRESS_MIMETYPES 规定了对那些类型的返回数据进行压缩,默认值为:

['text/html', 'text/css', 'text/xml','application/json','application/javascript']

在实例化的时候,可以通过匿名函数进行设置

from flask_compress import Compress
compress = Compress()
compress.init_app(app, compress_level=9, compress_min_size=500,
                  compress_filter=lambda r: r.content_type.startswith('text/'))

COMPRESS_MIN_SIZE

该参数默认值是 500 bytes ,如果低于该值,不压缩,该值可以在实例化的时候进行配置。

compress = Compress()
compress.init_app(app, compress_level=9, compress_min_size=500)

使用上述初始化代码,就可以使用 9 级压缩了,即当响应体大小大于 500 bytes 时才进行压缩。

🎯 flask-compress 模块原理

在 flask-compress 内部,利用 app 的 after_request() 方法为 flask 服务注册了一个钩子,当请求结束时就会执行 Comporess 的 after_request 方法。

插件中的代码如下:

app.after_request(self.after_request)

🎯 compress.init_app() 详细参数表

使用 Flask-compress 时,你可以通过在初始化时传递参数来配置压缩行为。
compress.init_app() 函数可用的参数列表如下所示:

  • app: Flask 应用程序实例;
  • compress_level: 压缩级别,取值范围为 1-9,默认为 6,压缩级别越高,压缩效率越高,但是压缩时间也会越长;
  • compress_min_size:最小压缩字节数,取值为整数,默认为 500;
  • compress_filter: 一个可选的函数,用于确定哪些响应应该被压缩。

📢📢📢📢📢📢
💗 你正在阅读 【梦想橡皮擦】 的博客
👍 阅读完毕,可以点点小手赞一下
🌻 发现错误,直接评论区中指正吧
📆 橡皮擦的第 841 篇原创博客

从订购之日起,案例 5 年内保证更新

### 使用Transformer模型进行图像分类的方法 #### 方法概述 为了使Transformer能够应用于图像分类任务,一种有效的方式是将图像分割成固定大小的小块(patches),这些小块被线性映射为向量,并加上位置编码以保留空间信息[^2]。 #### 数据预处理 在准备输入数据的过程中,原始图片会被切分成多个不重叠的patch。假设一张尺寸为\(H \times W\)的RGB图像是要处理的对象,则可以按照设定好的宽度和高度参数来划分该图像。例如,对于分辨率为\(224\times 224\)像素的图像,如果选择每边切成16个部分的话,那么最终会得到\((224/16)^2=196\)个小方格作为单独的特征表示单元。之后,每一个这样的补丁都会通过一个简单的全连接层转换成为维度固定的嵌入向量。 ```python import torch from torchvision import transforms def preprocess_image(image_path, patch_size=16): transform = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), # 假设目标分辨率是224x224 transforms.ToTensor(), ]) image = Image.open(image_path).convert('RGB') tensor = transform(image) patches = [] for i in range(tensor.shape[-2] // patch_size): # 高度方向上的循环 row_patches = [] for j in range(tensor.shape[-1] // patch_size): # 宽度方向上的循环 patch = tensor[:, :, i*patch_size:(i+1)*patch_size, j*patch_size:(j+1)*patch_size].flatten() row_patches.append(patch) patches.extend(row_patches) return torch.stack(patches) ``` #### 构建Transformer架构 构建Vision Transformer (ViT),通常包括以下几个组成部分: - **Patch Embedding Layer**: 将每个图像块转化为低维向量; - **Positional Encoding Layer**: 添加绝对或相对位置信息给上述获得的向量序列; - **Multiple Layers of Self-Attention and Feed Forward Networks**: 多层自注意机制与前馈神经网络交替堆叠而成的核心模块; 最后,在顶层附加一个全局平均池化层(Global Average Pooling)以及一个多类别Softmax回归器用于预测类标签。 ```python class VisionTransformer(nn.Module): def __init__(self, num_classes=1000, embed_dim=768, depth=12, num_heads=12, mlp_ratio=4., qkv_bias=False, drop_rate=0.): super().__init__() self.patch_embed = PatchEmbed(embed_dim=embed_dim) self.pos_embed = nn.Parameter(torch.zeros(1, self.patch_embed.num_patches + 1, embed_dim)) self.cls_token = nn.Parameter(torch.zeros(1, 1, embed_dim)) dpr = [drop_rate for _ in range(depth)] self.blocks = nn.Sequential(*[ Block( dim=embed_dim, num_heads=num_heads, mlp_ratio=mlp_ratio, qkv_bias=qkv_bias, drop=dpr[i], ) for i in range(depth)]) self.norm = nn.LayerNorm(embed_dim) self.head = nn.Linear(embed_dim, num_classes) def forward(self, x): B = x.shape[0] cls_tokens = self.cls_token.expand(B, -1, -1) x = self.patch_embed(x) x = torch.cat((cls_tokens, x), dim=1) x += self.pos_embed x = self.blocks(x) x = self.norm(x) return self.head(x[:, 0]) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

梦想橡皮擦

如有帮助,来瓶可乐

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值