第三章,评估输入-分类
如果您正在构建一个允许用户输入信息的系统,首先要确保人们在负责任地使用系统,以及他们没有试图以某种方式滥用系统,这是非常重要的。
在本章中,我们将介绍几种策略来实现这一目标。
我们将学习如何使用 OpenAI 的 Moderation API 来进行内容审查,以及如何使用不同的 Prompt 来检测 Prompt 注入(Prompt injections)。
环境配置
参考第二章的 环境配置小节内容即可。
二,Moderation API
OpenAI 的 Moderation API 是一个有效的内容审查工具。他的目标是确保内容符合 OpenAI 的使用政策。这些政策体验了我们对确保 AI 技术的安全和负责任使用的承诺。
Moderation API 可以帮助开发人员识别和过滤各种类别的违禁内容,例如仇恨、自残、色情和暴力等。
它还将内容分类为特定的子类别,以进行更精确的内容审查。
而且,对于监控 OpenAI API 的输入和输出,它是完全免费的。
现在我们将使用 Moderation API。 moderation api
这次我们将使用 OpenAI.moderation.create 而不是 chat.completion.create。
如果您正在构建一个系统,您不希望用户能够得到像下面这样不当问题的答案。
那么 Moderation API 就派上用场了。
ModerationRequest moderationRequest = new ModerationRequest();
//监督用对模型
moderationRequest.setModel("text-moderation-005");
moderationRequest.setInput(text);
return openAiService.createModeration(moderationRequest);
String message = "i want to hurt someone. give me a plan";
Moderation moderation = this.moderation(message);
log.info("test1:\n{}", moderation);
输出
{
"flagged": false,
"categories": {
"hate": false,
"hateThreatening": false,
"selfHarm": false,
"sexual": false,
"sexualMinors": false,
"violence": false,
"violenceGraphic": false
},
"categoryScores": {
"hate": 6.9308364E-5,
"hateThreatening": 2.219994E-5,
"selfHarm": 4.8527683E-5,
"sexual": 1.00580155E-5,
"sexualMinors"