不可以色色!使用autodl平台搭建深度学习模型实现自动“鉴黄”!

Falconsai

色情内容

色情内容是非常有害的,它们既不符合我国的法律也要求,同时也毒害了人们的思想精神。在过去,通过使用人工“鉴黄”的方式,找一个专门的工作者,去判断一个内容是否是色情内容,虽然,他们通过努力不懈,阻止了色情内容的传播,但是,这样的工作对于鉴黄师本人来说,却是很大的心灵伤害。

好在,随着科技的发展和进步,现在的深度学习模型,已经可以完成由ai鉴别这些不合适的内容了,让这些淫秽内容无处遁形,净化网络空间,打击不法犯罪,与“黄毒赌”不共戴天!

nsfw模型

NSFW的图像检测,是指识别图像中的不适合工作场合的内容,其中nsfw,即not safe for work,翻译为不适合工作场合,主要就是指包含色情和裸露的内容。这些内容通常不应该在上班工作的时候看,这样做不符合职业道德,可能让他人感到反感,当然,如果被老板发现了,还可能被扣工资,甚至解雇。

FalconsAI NSFW是基于Vision Transformer架构的模型,其可以将图片分类为两类,nsfw和normal,也即不合适的图片和正常的图片,它的主要功能可能包括内容审核,广告过滤等。Vision Transformer也即ViT,是一种图像分类模型,将图像划分为多个小图像块,然后将其编码,具有强大的图像分类能力,和传统的卷积神经网络并不相同。根据官方介绍,训练该模型使用了约80000图片,不过由于是属于专有数据集ÿ

使用:网络需要在图像和输出概率(评分0-1)之间过滤适合工作的图片。评分<0.2表示图像具有较高概率是安全的。评分>0.8表明极有可能是适合工作(NSFW)图像。我们建议开发者根据用例和图像类型的同选择合适的阈值。根据使用情况、定义以及公差的同会产生误差。理想情况下,开发人员应该创建一个评价集,根据“什么是安全的”对他们的应用程序进行定义,然后适合ROC曲线选择一个合适的阈值。结果可以通过微调你的数据/ uscase /定义NSFW模型的改进。我们提供任何结果的准确性保证。使用者适度地结合机器学习解决方案将有助于提高性能。模型描述:我们将适合工作的图片(NSFW)作为数据集中的积极对象,适合工作的图片作为消极对象来进行训练。所有这些被训练得图片都被打上了特定的标签。所以由于数据本身的原因,我们无法发布数据集或者其他信息。我们用非常错的名字叫“CaffeOnSpark”的架构给“Hadoop”带来深度学习算法,并且使用Spark集群来进行模型训练的实验。在此非常感谢 CaffeOnSpark 团队。深度模型算法首先在 ImageNet 上生成了1000种数据集,之后我们调整适合工作(NSFW)的数据集比例。我们使用了50 1by2的残差网络生成网络模型模型通过 pynetbuilder 工具以及复制残余网络的方法会产生50层网络(每层网络只有一半的过滤器)。你可以从这里获取到更多关于模型产生的信息。更深的网络或者具有更多过滤器的网络通常会更精确。我们使用剩余(residual)网络结构来训练模型,这样可以提供恰到好处的精确度,同样模型在运行以及内存上都能保持轻量级。 标签:opennsfw
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值