- 博客(24)
- 收藏
- 关注
原创 STM32开发基础阶段复习
HSI振荡器时钟:芯片内部RC振荡器产生的时钟,但是缺陷是不够稳定,所以主要是在内核启动时使用。同时,在相同抢占优先级的中断中,高响应并不会打断有低响应,但在等待结束时可以优先响应。在NVIC管理多个中断时,更高的抢占优先级中断会打断低抢占优先级的中断。CRH:端口配置高寄存器,负责配置每组GPIO的后八个端口的工作模式。输出模式:通用推挽输出,通用开漏输出,复用推挽输出,复用开漏输出。输入模式:浮空输入,上拉输入,下拉输入,模拟输入。配置NVIC:中断优先级组,中断优先级,使能中断。
2024-11-16 23:57:40
484
原创 网络地址和本地网络地址
在 IPv4 地址中,一个完整的 IP 地址由两部分组成:网络地址部分(Network Address)和本地网络地址部分(Host Address 或 Local Network Address)。子网掩码用于区分网络地址部分和本地网络地址部分。子网掩码通常是一个 32 位的二进制数,其中 1 表示网络地址部分,0 表示本地网络地址部分。本地网络地址部分:通过将 IP 地址和子网掩码的反码进行按位与运算得到。网络地址部分:通过将 IP 地址和子网掩码进行按位与运算得到。
2024-10-24 14:05:25
545
原创 TCP协议四次挥手
当客户端收到了挥手消息后,客户端发送第四次挥手FIN,状态转换为TIME-WAIT,开始计时2MSL(2个最大报文段存活时间,以确保所有可能的延迟数据包都已经消失。并且客户端能够接收带有数据的消息但发送不了带有数据的消息了。ack=V则表示服务端向客户端发送确认消息累计的32为确认序号的值。ACK置为1表示这是确认报文,seq=V,ack=U+1表示期望收到的下一个字节的序列号是 U+1。客户端由ESTABLISHED转换为FIN-WAIT-1。
2024-10-22 19:40:52
415
原创 TCP协议三次握手
客户端确认收到服务端的报文后,向服务端发送ACK标志为1的报文。其中SYN(同步序列号)表示SYN标志位为1说明当前传递的是握手信息,没有写的标志位默认为0,seq=ISN(c)服务端在收到客户端的握手信息后,向客户端发送确认收到握手信息的报文段,状态从LISTEN转换为SYN-RCVD状态。其中ACK标志位为1,seq=ISN(c)+1,ack=ISN(s)+1。其中SYN和ACK(确认号)标志位都为1。seq=ISN(s),ack=ISN(c)+1表示确认序列号为服务端序列号的初始值+1。
2024-10-22 16:38:44
384
原创 线程处理中常见的错误 :竞态条件
竞态条件是多线程编程中常见的一种错误情况,它发生在两个或多个线程以一种依赖于不可预测的时间顺序的方式访问和修改共享资源或数据时。如果这些线程的执行顺序不同,程序的行为可能会有所不同,甚至可能导致程序出错。所以由于线程的运行时间顺序的不同,所得到的结果未必是程序员想要的结果。考虑一个简单的计数器例子,假设有一个整型变量。此时的counter值为1。
2024-10-07 23:39:36
215
原创 Ctrl + D和Ctrl + C
Ctrl+D:发送 EOF 信号,表示输入流的结束,程序会停止等待输入并继续执行。Ctrl+C:发送 SIGINT 信号,请求程序终止,默认情况下程序会立即终止。
2024-09-26 19:10:45
167
原创 c/c++中exit()和_exit()的区别
它是一个低级别的函数,不执行任何清理操作。exit() 函数是在 <stdlib.h> 中定义的,它是C标准库的一部分,提供了更高级别的终止行为。如果你在一个子进程中,并且不关心资源的释放(例如,子进程的任务已经完成,不需要做任何额外的工作),那么可以使用 _exit()。exit() 是一个比较“优雅”的退出方法,因为它确保了所有的资源被适当地清理,使得程序能够在正常情况下结束。在C/C++中,exit() 和 _exit() 都是用来终止程序执行的函数,但是它们之间有一些关键的区别。
2024-09-14 14:54:39
442
原创 《Bilateral Knowledge Interaction Network for Referring Image Segmentation》论文笔记
BKINet由知识学习模块(KLM)和知识应用模块(KAM)组成,实现双方的知识交互。具体而言,KLM通过一种由粗到精的策略,通过聚合与目标对象最相关的视觉信息来增强文本特征,该策略将对象的具体知识补充到文本的抽象知识中,从而生成包含参考信息的KI核。然后,KAM应用包含具体和抽象知识的KI核来突出视觉特征。然后,利用突出的视觉特征通过卷积层预测准确的分割掩码。
2024-05-13 14:20:46
714
1
原创 《Improving Referring Image Segmentation usingVision-Aware Text Features》论文笔记
1.CLIP Prior模块结合图像和文本生成一个以对象为中心的视觉热图。用于初始化DETR-based方法的对象查询。2.使用上下文解码器(交叉注意力模块)对文本特征和视觉特征进行交互。利用Meaning Consistency Constraint获得有意义且一致的特征空间。3.利用masked-attention transformer decoder使用多尺度文本引导的视觉特征增强对象查询。最后增强的对象查询和CMD的视觉特征被用来输出分割掩码。以上是论文中的概述,看完很懵,看具体实现细节。
2024-05-08 15:54:14
714
1
原创 批量归一化和层归一化
而批量归一化是一个批量中所有样本的同一类特征进行归一化。:层归一化是每个样本的自身特征一起归一化。一直对于归一化的目标有所困惑,今天从。的图片中找到了答案。
2024-04-29 15:50:10
288
原创 《Area-keywords cross-modal alignment for referring image segmentation》“区域-关键字”跨模态对齐框架
下图显示了拟议AKCA的框架。首先,图像编码器和语言编码器分别提取图像和语言特征。然后用跨模态对准模块对两模态之间的关系进行建模。最后,多源驱动的动态卷积将跨模态特征转换为像素级预测。
2024-03-21 20:09:52
786
4
原创 《Referring Image Matting》论文模型CLIPMat
CLIPMat使用大规模预训练的CLIP模型作为文本和视觉主干,使用典型的抠图分支作为解码器。采用直观的上下文嵌入提示,为文本编码器提供与抠图相关的可学习特性。为了提取语义分支的高级视觉语义信息,通过文本输出特征的引导得出视觉语义特征。此外,由于与分割任务相比,RIM(Referring Image Matting)需要更多的视觉细节,因此作者设计了一个通过利用浅层特征和原始输入图像提取多层次细节的模块,旨在抠图分支中保留前景细节。
2024-03-07 16:40:39
1793
1
原创 什么是alpha mattes(阿尔法通道图层)
在数据中,alpha mattes通常以灰度图像的形式表示。每个像素的数值表示该像素的透明度级别,通常在0到255之间,0代表完全透明(完全不可见),255代表完全不透明(完全可见)。因此,alpha mattes在数据中是以灰度值的矩阵形式存在,与原始图像对应,用于描述每个像素的透明度,以便在后续的图像合成、分割或处理过程中准确控制像素的可见性和权重。
2024-03-07 14:03:01
380
1
原创 《CRIS: CLIP-Driven Referring Image Segmentation》论文解读
1.作者提出了一个CLIP驱动的Referrring Image Segmentation(CRIS)来传递CLIP模型的知识,以实现文本到像素的对齐。2.充分利用了多模态知识,设计了视觉语言解码器和文本到像素对比学习两种创新设计。3.在三个具有挑战性的基准数据集(RefCOCO、RefCOCO+、GRef)上的实验结果明显优于以前的最先进的方法。
2024-03-05 19:39:37
839
转载 题目 3159: 蓝桥杯2023年第十四届省赛真题-填充
有一个长度为 n 的 01 串,其中有一些位置标记为?,这些位置上可以任意填充 0 或者 1,请问如何填充这些位置使得这个 01 串中出现互不重叠的 00 和 11 子串最多,输出子串个数。时间限制: 5s 内存限制: 576MB 提交: 1331 解决: 415。如果在问号处填 0 ,则最多出现一个 00 和一个 11:111000。对于所有评测用例,1 ≤ n ≤ 1000000。到底是0是1都无所谓,有?输出一行包含一个整数表示答案。输入一行包含一个字符串。
2024-03-03 15:54:48
399
原创 《PolyFormer: Referring Image Segmentation as Sequential Polygon Generation》论文模型解读
论文作者为RIS(Referring Image Segmentation)和REC(Referring Image Segmentation)引入了一个新的架构,称为PolyFormer。此模型不是直接预测分割掩码,而是一次产生边界框的角点和所预测实列的多边形顶点。是一种seq2seq的模型。
2024-03-03 14:57:05
1581
原创 bpe_simple_vocab_16e6.txt.gz文件结构
文件内存储的通常是一种文本数据集的子词(Byte Pair Encoding, BPE)词汇表,经过压缩(.gz格式)。BPE是自然语言处理中常用的一种词元编码方法,用于将文本序列分割成更小的、有意义的单元,这些单元不是单个字符,而是基于统计学上的频次自动生成的子词。其文件结构如下图所示。
2024-02-22 14:47:06
1003
1
原创 《LAVT: Language-Aware Vision Transformer forReferring Image Segmentation》关于语言指导的图像分割的论文笔记
Referring image segmentation(我翻译成语言指导的图像分割)其目的就是从图像中分割出自然语言表达式所指称的对象。该任务背后的关键挑战之一是利用指称表达式突出图像中的相关位置。在这篇论文中,作者通过在视觉Transformer编码器网络的中间层中早期融合语言和视觉特征,可以实现更好的跨模态对齐。
2024-02-19 15:01:56
655
1
原创 Referring Image Segmentation Using Text Supervision(论文笔记)
校准:对于分类过程产生的粗响应图,校正响应图的准确性,将目标物体与同一图像中的其他物体进行对比(将其视为背景噪音)。选择最高的响应图作为目标对象的响应图。具体实现是通过积极表达和消极表达生成的响应图,将每个表达的响应图输入公式得到响应分数,利用响应分数和人为干预正负样本值的构造损失函数,从而学习正确的结果。(3)分割网络:图像编码器与文本编码器采用clip的编码器,并将文本编码器最后三层文本特征融合进图像编码器的最后三层中,并且文本特征也融合进解码器中,解码器和编码器是对称的。两个步骤的训练设置是相同的。
2024-02-01 15:29:38
1609
4
原创 Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs(关于大核卷积的论文笔记)
作者提出了一个提出了RepLKNet,一个纯CNN架构,其内核大小为31×31,而不是常用的3×3。此模型再一些经典的下游任务上获得了与Swin Transformer相当或更好的结果,并且延迟低。作者还提到与小核cnn相比,大核cnn具有更大的有效接受野和更高的形状偏差而不是纹理偏差。RepLKNet的高性能主要是因为通过大内核构建的大感受野。
2024-01-28 15:24:21
366
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人