EasyJailbreak 使用教程
1. 项目介绍
EasyJailbreak 是一个易于使用的 Python 框架,旨在帮助研究人员和开发者专注于大型语言模型(LLM)的安全性研究。该框架将主流的越狱过程分解为几个可迭代的步骤:初始化变异种子、选择合适的种子、添加约束、变异、攻击和评估。通过为每个步骤提供组件,EasyJailbreak 构建了一个用于进一步研究和尝试的沙盒环境。
2. 项目快速启动
在开始使用 EasyJailbreak 之前,确保已经安装了 Python 3.9 或更高版本。以下是快速启动项目的步骤:
# 安装 EasyJailbreak
pip install easyjailbreak
# 或者,如果你想为项目添加新的组件,可以克隆仓库并安装
git clone https://github.com/EasyJailbreak/EasyJailbreak.git
cd EasyJailbreak
pip install -e .
3. 应用案例和最佳实践
以下是一个使用 EasyJailbreak 的示例:
# 导入所需的模块
from easyjailbreak.attacker import PAIR_chao_2023
from easyjailbreak.datasets import JailbreakDataset
from easyjailbreak.models.huggingface_model import from_pretrained
from easyjailbreak.models.openai_model import OpenaiModel
# 准备模型和数据集
attack_model = from_pretrained(
model_name_or_path='lmsys/vicuna-13b-v1.5',
model_name='vicuna_v1.1'
)
target_model = OpenaiModel(
model_name='gpt-4',
api_keys='INPUT YOUR KEY HERE!!!'
)
eval_model = OpenaiModel(
model_name='gpt-4',
api_keys='INPUT YOUR KEY HERE!!!'
)
dataset = JailbreakDataset('AdvBench')
# 实例化攻击者
attacker = PAIR_chao_2023(
attack_model=attack_model,
target_model=target_model,
eval_model=eval_model,
jailbreak_datasets=dataset
)
# 开始越狱攻击
attacker.attack(save_path='vicuna-13b-v1.5_gpt4_gpt4_AdvBench_result.jsonl')
在上述代码中,我们首先准备攻击模型、目标模型和评估模型,然后加载数据集。接着,我们实例化了一个 PAIR 攻击者,并调用其 attack 方法开始攻击,并将结果保存到指定的文件中。
4. 典型生态项目
EasyJailbreak 的生态系统中包含了许多攻击方案(recipes),这些方案是从相关论文中收集而来的。用户可以在各种模型上应用这些方案,以了解模型和方案的性能。通过 EasyJailbreak 提供的 API,用户可以轻松地下载模型并使用这些方案。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



