Noob靶机

启动靶机和Kali后进行扫描

使用namp -A -sV -T4 -p- 靶机ip 查看靶机开放的端口

发现开放了21的ftp,、80的http、55077的ssh服务端口

先查看一下ftp端口,有文件

查看一下cred

Y2hhbXA6cGFzc3dvcmQ= 解码得到 champ:password

访问 80 端口,发现是一个登陆页面

使用上面的密码试一下,登录成功

点击about us会下载一个文件,解压后

sudo内容为

Did you notice the file name? Isn't is interesting?

使用 steghide 工具,查看一下info

bmp文件盲猜pass为sudo,jpg文件没密码成功得到信息

可以看到,两张图都隐藏有文件

分别查看其内容

This is_not a python file but you are revolving around. well, try_ to rotate some words too.

jgs:guvf bar vf n fvzcyr bar

user.txt是一串密文, hint.py提示rotate

解密网址:http://www.rot13.de/index.php,成功解密

55677是一个ssh服务,上边解出来的东西就是账号密码,登录

在Documents发现了一个backup.sh文件

分析脚本发现了账户密码n00b:aw3s0m3p@$$w0rd

在 Downloads发现了个flag-1.txt

VGhlIGZsYWcgaXMgdGhlIGVuY29kZWQgc3RyaW5nIGl0c2VsZg

base64解密结果The flag is the encoded string itself

在pictures发现了个echo.sh

#!/bin/bash #find something related #It may help you echo "All the best :)"

回到最开始的那个脚本,利用其中的账户密码,切换成n00b用户

### LoRA 技术的基础知识 LoRA(Low-Rank Adaptation)是一种用于高效微调大语言模型的技术,其核心目标是通过降低参数更新的秩来显著减少计算资源和时间开销[^3]。这种方法允许开发者仅调整少量参数即可实现对大规模预训练模型的有效定制化。 #### LoRA 的基本概念 LoRA 基于低秩分解的思想,在微调过程中并不是直接修改原始模型的所有权重,而是引入两个小型矩阵 \( A \) 和 \( B \),使得它们相乘的结果近似表示原模型中的某些权重变化。这种设计可以极大地减少需要优化的参数数量,从而提高效率并节省内存消耗。 以下是几个重要的基础知识要点: 1. **低秩分解** 在传统方法中,如果要微调一个具有数亿甚至数十亿参数的大规模神经网络,则通常意味着这些参数都需要被重新训练。然而,采用 LoRA 后,只需增加两组额外的小型可学习张量——即上述提到的 \( A \) 和 \( B \)。这两个新增加的部分分别对应输入层到隐藏状态之间的映射关系以及从隐藏状态返回至输出端口的过程。 2. **适应性强** 尽管减少了实际参与梯度下降过程的数量级庞大的自由变量数目,但由于巧妙利用了线性代数理论里的奇异值分解(SVD)原理或者随机初始化技巧构建出来的替代品能够很好地捕捉住目标任务所需的关键特征信息,因此最终效果并不会受到太大影响。 3. **应用场景广泛** 不论是在自然语言处理领域内的文本分类、机器翻译任务上;还是计算机视觉方向的目标检测、图像分割等方面均能发挥出色表现。特别是当面对资源受限环境下的部署需求时(比如移动设备端应用开发场景下), 使用该策略无疑是一个明智的选择。 4. **实践操作简易** 对于初学者而言,可以通过一些公开可用的教学资料快速掌握这项技能。例如,“手把手教你训练LoRA:LoRA训练入门指南”提供了详尽的操作流程说明,并配有完整的视频演示帮助理解各个细节部分[^2]。此外还有专门针对特定框架版本如 SDXL 设计而成的相关课程可供参考学习[^1]。 ```python import torch from peft import get_peft_config, PeftModelForSequenceClassification # 初始化 PEFT 配置 (这里以 LoRA 为例) peft_config = get_peft_config( method="lora", r=8, # 秩大小设置为8 lora_alpha=16 # 控制缩放因子 ) model = SomePretrainedModel() # 替换为你使用的具体模型类名 peft_model = PeftModelForSequenceClassification(model, peft_config) # 开始正常训练... optimizer = torch.optim.AdamW(peft_model.parameters(), lr=5e-5) for epoch in range(num_epochs): for batch in dataloader: outputs = peft_model(**batch) loss = outputs.loss optimizer.zero_grad() loss.backward() optimizer.step() ``` 以上代码片段展示了如何基于 Hugging Face 提供的支持库 `PEFT` 来集成 LoRA 功能进入标准 PyTorch 训练循环之中。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值