python出图

本文详细介绍了如何使用Python的matplotlib库进行基本的绘图操作,包括绘制散点图、子图以及设置图元属性。通过实例展示了如何创建多个子图,设置坐标轴范围、标签、刻度间隔和自定义文字,并提供了调整图像分辨率和保存图片的方法。此外,还提及了gridspec属性用于更高级的布局调整。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近的工作中一直在用python,不过都是一些比较简单没有啥技术含量的东西,搬砖工作。不过有的时候会遇到用python画一些散点图,下面关于出图的内容,我想跟大家分享分享。
以下内容将按照 “绘图”–>“绘制子图”–>“绘图元素的设置”–>“出图” 的顺序,进行简单讲解。统一使用的是python的中的 matplotlib.pyplot 工具。

1、“绘图”

我原本在使用python的时候,发现绘图还是挺简单的,把两组数据准备好,使用pyplot工具中的scatter(),或者plot(),然后 show()一下就好了。例子如下:

import matplotlib.pyplot as plt
a=[]
b=[]
def initNumb():
    for i in range(0,100):
        a.append(i*0.1)
    for j in range(0,100):
        b.append(math.sin(j*0.1))

def plotShow1():
    plt.scatter(a,b)
    plt.show()
    
initNumb()
plotShow1()

输出效果

2、“绘制子图”

如果你想要两个或者多个图同时出现在一个图片上,变成一个文件。你就可以是用这部分的功能。当然,你也可以另辟蹊径,比如先把每个图片生成好,然后放到PS等工具中进行处理也是可以的。这里使用了add_subplot() 方法。例子如下:

import matplotlib.pyplot as plt
a=[]
b=[]
def initNumb():
    for i in range(0,100):
        a.append(i*0.1)
    for j in range(0,100):
        b.append(math.sin(j*0.1))

def plotShow2():
    fig=plt.figure()
    ax1 = fig.add_subplot(221)
    ax1.scatter(a,b)
    ax2 = fig.add_subplot(222)
    ax2.plot(a,b)
    ax3 = fig.add_subplot(224)
    ax3.fill(a,b)
    plt.show()

initNumb()
plotShow2()

输出效果

3、“绘图标题元素的设置”

上面的两种方法虽然把图都输出了,但是存在一个问题,没有坐标轴的其他信息。横轴是啥,纵轴是啥,这个刻度间隔能不能调 ,字体字号能不能调。为了解决这个问题,就需要对这些图中的元素进行设置。例子如下:

import matplotlib.pyplot as plt
from matplotlib.pyplot import MultipleLocator
a=[]
b=[]
def initNumb():
    for i in range(0,100):
        a.append(i*0.1)
    for j in range(0,100):
        b.append(math.sin(j*0.1))

def plotShow2():
    reload(sys)
    sys.setdefaultencoding('utf-8')
    # fm.FontProperties(fname=r'C:\Windows\Fonts\SimHei.ttf')  # 设置字体
    plt.rcParams['font.sans-serif'] = ['SimHei'] #设置中文字体,不然中文会显示为乱码
    plt.rcParams['axes.unicode_minus'] = False

    fig=plt.figure(figsize=(10,10)) # 设置显示图片的大小
    ax1 = fig.add_subplot(221)
    ax1.scatter(a,b)
    ax1.set_xlim(0, 5) #设置上下界
    ax1.set_ylim(-2, 2) #设置上下界
    x_major_locator = MultipleLocator(1)
    ax1.xaxis.set_major_locator(x_major_locator) #设置坐标轴间隔
    ax1.set_ylabel("b",labelpad=5) #设置坐标轴的名称,和距离坐标轴的距离
    ax1.set_xlabel(u"横坐标信息  abcdee",labelpad=1) #设置中文信息
    ax1.text(2.3, 1.5, "$A^{RMSE}$" + " $A_{RMSE}$" , fontsize=10) #给图片添加文字,并设置为斜体,上下标

    ax2 = fig.add_subplot(222)
    ax2.plot(a,b)
    ax3 = fig.add_subplot(224)
    ax3.fill(a,b)
    plt.show()

initNumb()
plotShow2()

在这里插入图片描述

4、“出图”

这是属于最后一步了,刚开始的时候,我都是选择简单的使用QQ或者微信的截图功能,把这个图片裁剪下来,如果给别人一个示意图的时候可以使用。但是分辨率不太高,然后我又通过上图中,左下方的保存按钮,出来的图片分辨率也不太高。现在提供一个简单,而且输出分辨率还能自己定义的方法。例子如下:

plt.savefig(r"E:\OUTFile\abc.jpg", dpi=500, bbox_inches='tight') #设置输出位置,输出分辨率,是否需要图片外的空白部分
plt.show()

在这里插入图片描述
到这里在python中进行图的显示和输出,就基本上能够满足需求了。颜色、字号大小之类的大家可以根据自己的需求修改。还有一些特殊的设置,如每个子图占的位置能不能自己调节和设置,也是可以的,参考gridspec属性设置。
好了,如果大家在画图方面,有好的建议和教程,欢迎在评论区留言推荐,大家共同进步。(转载请注明出处)

### RT-DETRv3 网络结构分析 RT-DETRv3 是一种基于 Transformer 的实时端到端目标检测算法,其核心在于通过引入分层密集正监督方法以及一系列创新性的训练策略,解决了传统 DETR 模型收敛慢和解码器训练不足的问题。以下是 RT-DETRv3 的主要网络结构特点: #### 1. **基于 CNN 的辅助分支** 为了增强编码器的特征表示能力,RT-DETRv3 引入了一个基于卷积神经网络 (CNN) 的辅助分支[^3]。这一分支提供了密集的监督信号,能够与原始解码器协同工作,从而提升整体性能。 ```python class AuxiliaryBranch(nn.Module): def __init__(self, in_channels, out_channels): super(AuxiliaryBranch, self).__init__() self.conv = nn.Conv2d(in_channels, out_channels, kernel_size=3, padding=1) self.bn = nn.BatchNorm2d(out_channels) def forward(self, x): return F.relu(self.bn(self.conv(x))) ``` 此部分的设计灵感来源于传统的 CNN 架构,例如 YOLO 系列中的 CSPNet 和 PAN 结构[^2],这些技术被用来优化特征提取效率并减少计算开销。 --- #### 2. **自注意力扰动学习策略** 为解决解码器训练不足的问题,RT-DETRv3 提出了一种名为 *self-att 扰动* 的新学习策略。这种策略通过对多个查询组中阳性样本的标签分配进行多样化处理,有效增加了阳例的数量,进而提高了模型的学习能力和泛化性能。 具体实现方式是在训练过程中动态调整注意力权重分布,确保更多的高质量查询可以与真实标注 (Ground Truth) 进行匹配。 --- #### 3. **共享权重解编码器分支** 除了上述改进外,RT-DETRv3 还引入了一个共享权重的解编码器分支,专门用于提供密集的正向监督信号。这一设计不仅简化了模型架构,还显著降低了参数量和推理时间,使其更适合实时应用需求。 ```python class SharedDecoderEncoder(nn.Module): def __init__(self, d_model, nhead, num_layers): super(SharedDecoderEncoder, self).__init__() decoder_layer = nn.TransformerDecoderLayer(d_model=d_model, nhead=nhead) self.decoder = nn.TransformerDecoder(decoder_layer, num_layers=num_layers) def forward(self, tgt, memory): return self.decoder(tgt=tgt, memory=memory) ``` 通过这种方式,RT-DETRv3 实现了高效的目标检测流程,在保持高精度的同时大幅缩短了推理延迟。 --- #### 4. **与其他模型的关系** 值得一提的是,RT-DETRv3 并未完全抛弃经典的 CNN 技术,而是将其与 Transformer 结合起来形成混合架构[^4]。例如,它采用了 YOLO 系列中的 RepNCSP 模块替代冗余的多尺度自注意力层,从而减少了不必要的计算负担。 此外,RT-DETRv3 还借鉴了 DETR 的一对一匹配策略,并在此基础上进行了优化,进一步提升了小目标检测的能力。 --- ### 总结 综上所述,RT-DETRv3 的网络结构主要包括以下几个关键组件:基于 CNN 的辅助分支、自注意力扰动学习策略、共享权重解编码器分支以及混合编码器设计。这些技术创新共同推动了实时目标检测领域的发展,使其在复杂场景下的表现更加出色。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值