【亲测免费】 EasyJailbreak 使用教程

EasyJailbreak 使用教程

1. 项目介绍

EasyJailbreak 是一个易于使用的 Python 框架,旨在帮助研究人员和开发者专注于大型语言模型(LLM)的安全性研究。该框架将主流的越狱过程分解为几个可迭代的步骤:初始化变异种子、选择合适的种子、添加约束、变异、攻击和评估。通过为每个步骤提供组件,EasyJailbreak 构建了一个用于进一步研究和尝试的沙盒环境。

2. 项目快速启动

在开始使用 EasyJailbreak 之前,确保已经安装了 Python 3.9 或更高版本。以下是快速启动项目的步骤:

# 安装 EasyJailbreak
pip install easyjailbreak

# 或者,如果你想为项目添加新的组件,可以克隆仓库并安装
git clone https://github.com/EasyJailbreak/EasyJailbreak.git
cd EasyJailbreak
pip install -e .

3. 应用案例和最佳实践

以下是一个使用 EasyJailbreak 的示例:

# 导入所需的模块
from easyjailbreak.attacker import PAIR_chao_2023
from easyjailbreak.datasets import JailbreakDataset
from easyjailbreak.models.huggingface_model import from_pretrained
from easyjailbreak.models.openai_model import OpenaiModel

# 准备模型和数据集
attack_model = from_pretrained(
    model_name_or_path='lmsys/vicuna-13b-v1.5',
    model_name='vicuna_v1.1'
)
target_model = OpenaiModel(
    model_name='gpt-4',
    api_keys='INPUT YOUR KEY HERE!!!'
)
eval_model = OpenaiModel(
    model_name='gpt-4',
    api_keys='INPUT YOUR KEY HERE!!!'
)
dataset = JailbreakDataset('AdvBench')

# 实例化攻击者
attacker = PAIR_chao_2023(
    attack_model=attack_model,
    target_model=target_model,
    eval_model=eval_model,
    jailbreak_datasets=dataset
)

# 开始越狱攻击
attacker.attack(save_path='vicuna-13b-v1.5_gpt4_gpt4_AdvBench_result.jsonl')

在上述代码中,我们首先准备攻击模型、目标模型和评估模型,然后加载数据集。接着,我们实例化了一个 PAIR 攻击者,并调用其 attack 方法开始攻击,并将结果保存到指定的文件中。

4. 典型生态项目

EasyJailbreak 的生态系统中包含了许多攻击方案(recipes),这些方案是从相关论文中收集而来的。用户可以在各种模型上应用这些方案,以了解模型和方案的性能。通过 EasyJailbreak 提供的 API,用户可以轻松地下载模型并使用这些方案。

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值