ida动态调试初级教程

本文介绍了在Windows下使用IDA进行Go语言程序的逆向工程,由于IDA对Go语言的支持有限,需要结合动态调试来识别函数和输入输出点。通过设置断点、分析内存栈以及转换数据类型,作者逐步揭示了程序的输入处理、加密过程以及关键变量的初始化方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这里所讲的是windows环境下调试的初级教程

题目背景:

面对没有进行lumina的简单go语言逆向,都是sub函数无法看出输入输出点,只判断出print函数,不知道scanf,用动态调式

 注:ida7.6版本以前的版本不支持go语言的逆向解析lumina是ida提供的一种服务,由于大部分人用的都是ida破解版无法连接lumina,有的人用lemen(但这个需要经过手工配置)

所以,通过ida打开这个程序发现没有识别其中函数,只能用动静态相结合来测试

找到的主函数长这样

通过语句推断大概在黄标sub_1400AB1DB,用F2在该行下断点,选择localhost windows debugger运行

 发现输入没有反应,推定黄标这句是scanf(如果还不行就在黄标下一行再设一个断点,原本的取消,运行时发现可以输入,就能确定是黄标这行),记住,推断完后用N键将函数重命名增强可视性,像下图

 

 推断完上面来到下面,来到v11=sub_7ff6be65b1a4( )这行,由于不知道该函数作用是什莫,在此处下断点,运行后双击v11这个变量,跳转到内存地址栈中的数据界面(此处可以进行scanf操作了,我们假设输入的是a123123)

注意:动态调试时ida不会自动识别内存中的内存地址,所以双击v11进去后发现是一字节形式

 如图:标注的栈上原本只是一个字节形式,然后按D转为两个字节形式,再按D转为四字节形式

按四下D转为八字节形式,最终看到自己输入的内容再栈中的体现

如果这个是个地址的话双击后就可以跳到数据形式界面,但这里双击后没有效果,结合我们输入的就是 a123123,所以保存的是数值

可见v11也是我们的输入,由于看到下面还有++v11的操作,可以判断v11是v4的指针,如下图

猜测v9是v11加密后的结果,因为肯定存在一个将新值保存下来的过程,将v9的结果添加到v8中存储,所以盲猜sub_7ff6be65b6b3是append函数,将v8重命名为enc_buf

来到第41行,不难看出是与加密结果进行比对,enc_buf是是加密结果,则&cipher就肯定是给定的定值来进行比较的。

双击&cipher变量进入会发现其中的db是空的,这是因为C++的初始化并不是保存在段中,而是在函数运行后进行的初始化 ,如下图db内是空的

 所以这个关键变量初始化的操作并不会出现在函数的入口点,(对函数sub_7ff6be677ec0这个函数(即主函数)进行交叉引用)

回到主函数点击函数名按x进行交叉引用

这个关键变量初始化的操作并不会出现在函数的入口点,而是出现在入口点很深的位置,如下图,在主函数的初始化前还初始化了一些配置函数与异常处理

  

 在该句下一个断点,运行到这里时cipher存在数值,

因为发现数据看不了,利用前面讲的,连按三下D,转化发现转成了四个地址 

 

 

双击第一个地址,发现还是指向cipher函数,第二个地址如下

这里存储的数据一看就直到很有信息量,单击这个地址

用shift+8创建一个数组

 

长度数组创建器自动会算好,是38,创建完后右键该地址选择convert——>convert to C++array(byte)(转换成C++的字节数组形式) 

 

 

得到数组后就可以开始写脚本了

就是用这个数组与7异或就可以了

 

 

 

03-30
### Swish-Gated Linear Unit (SwiGLU) 的定义 Swish-Gated Linear Unit (SwiGLU) 是一种结合了门控机制和激活函数的神经网络组件,广泛应用于自然语言处理和其他深度学习领域。它通过引入非线性和自适应加权的方式增强了模型表达能力[^4]。 具体来说,SwiGLU 可以被看作是一种特殊的门控单元形式,其中输入经过两个分支路径:一条路径应用 Swish 激活函数作为门控信号,另一条保持原始输入不变。最终输出由这两个分支的结果相乘得到: \[ \text{SwiGLU}(x) = (\sigma(W_s \cdot x + b_s) \odot W_g \cdot x + b_g) \] 在这里: - \(W_s\) 和 \(b_s\) 表示用于计算门控信号的权重矩阵和偏置项; - \(W_g\) 和 \(b_g\) 则表示用于缩放输入的权重矩阵和偏置项; - \(\sigma(x)\) 表示标准 Sigmoid 函数或其变种(如 Swish); - \(\odot\) 表示逐元素乘法操作。 这种设计允许模型动态调整不同特征的重要性,从而提升复杂模式的学习效率[^5]。 --- ### 实现细节 以下是基于 PyTorch 的 SwiGLU 实现代码片段: ```python import torch import torch.nn as nn class SwiGLU(nn.Module): def __init__(self, input_dim, output_dim): super(SwiGLU, self).__init__() self.linear_gate = nn.Linear(input_dim, output_dim) self.linear_main = nn.Linear(input_dim, output_dim) def forward(self, x): gate = torch.sigmoid(self.linear_gate(x)) # Gate signal using sigmoid/Swish main = self.linear_main(x) # Main transformation path return gate * main # Element-wise multiplication ``` 上述实现中,`linear_gate` 负责生成门控信号,而 `linear_main` 处理主要的数据流转换部分。两者的输出随后通过逐元素乘法组合在一起形成最终结果[^6]。 需要注意的是,在实际部署过程中可以根据需求替换掉默认的 Sigmoid 函数为其他更高效的替代品比如 SiLU 或 GELU 来进一步优化性能表现[^7]。 --- ### 使用场景 由于具备较强的灵活性以及良好的梯度传播特性,SwiGLU 特别适合于以下几种情况下的建模工作: 1. **序列建模**: 如 Transformer 架构中的前馈网络模块可以采用 SwiGLU 替代传统 ReLU/GeLU 层次结构来增强局部依赖关系捕捉能力。 2. **低资源环境**: 类似于预训练嵌入未能显著改善整体效果的小型数据集情境下,适当加入此类复杂的非线性变换有助于挖掘潜在规律[^8]。 3. **多任务联合训练框架内**, 当存在多个子任务共享底层表征空间时,利用 SwiGLU 提供额外自由度可以帮助平衡各目标间冲突并促进知识迁移过程顺利开展. ---
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值