NSFWDetector 项目使用教程

NSFWDetector 项目使用教程

NSFWDetectorA NSFW (aka porn) detector with CoreML项目地址:https://gitcode.com/gh_mirrors/ns/NSFWDetector

1. 项目的目录结构及介绍

NSFWDetector 项目的目录结构如下:

NSFWDetector/
├── Classes
│   └── assets
├── Example
│   └── NSFWDetector
│       └── Classes
│           └── assets
├── .gitignore
├── LICENSE
├── NSFWDetector.podspec
├── Package.swift
├── README.md

目录介绍

  • Classes/: 包含项目的主要代码文件。
  • Example/: 包含项目的示例代码。
  • Example/NSFWDetector/Classes/assets: 示例代码中的资源文件。
  • .gitignore: Git 忽略文件配置。
  • LICENSE: 项目许可证文件。
  • NSFWDetector.podspec: CocoaPods 配置文件。
  • Package.swift: Swift Package Manager 配置文件。
  • README.md: 项目说明文档。

2. 项目的启动文件介绍

NSFWDetector 项目的启动文件主要是 NSFWDetector.shared,用于初始化检测器。以下是启动文件的示例代码:

if #available(iOS 12.0, *) {
    let detector = NSFWDetector.shared
    detector.check(image: image) { result in
        switch result {
        case let .success(nsfwConfidence: confidence):
            if confidence > 0.9 {
                // 😱🙈😏
            } else {
                // ¯\_(ツ)_/¯
            }
        default:
            break
        }
    }
}

3. 项目的配置文件介绍

CocoaPods 配置文件 (NSFWDetector.podspec)

Pod::Spec.new do |spec|
  spec.name = 'NSFWDetector'
  spec.version = '1.1.2'
  spec.summary = 'A NSFW (aka porn) detector with CoreML'
  spec.homepage = 'https://github.com/lovoo/NSFWDetector'
  spec.license = { :type => 'BSD-3-Clause', :file => 'LICENSE' }
  spec.author = { 'Michael Berg' => 'michael.berg@lovoo.com' }
  spec.source = { :git => 'https://github.com/lovoo/NSFWDetector.git', :tag => spec.version.to_s }
  spec.ios.deployment_target = '12.0'
  spec.source_files = 'Classes/**/*'
  spec.frameworks = 'CoreML'
end

Swift Package Manager 配置文件 (Package.swift)

// swift-tools-version:5.3
import PackageDescription

let package = Package(
    name: "NSFWDetector",
    platforms: [
        .iOS(.v12)
    ],
    products: [
        .library(name: "NSFWDetector", targets: ["NSFWDetector"])
    ],
    dependencies: [],
    targets: [
        .target(name: "NSFWDetector", dependencies: [], path: "Classes")
    ]
)

以上是 NSFWDetector 项目的基本使用教程,涵盖了项目的目录结构、启动文件和配置文件的介绍。希望对您有所帮助!

NSFWDetectorA NSFW (aka porn) detector with CoreML项目地址:https://gitcode.com/gh_mirrors/ns/NSFWDetector

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

使用:网络需要在图像和输出概率(评分0-1)之间过滤不适合工作的图片。评分<0.2表示图像具有较高概率是安全的。评分>0.8表明极有可能是不适合工作(NSFW)图像。我们建议开发者根据用例和图像类型的不同选择合适的阈值。根据使用情况、定义以及公差的不同会产生误差。理想情况下,开发人员应该创建一个评价集,根据“什么是安全的”对他们的应用程序进行定义,然后适合ROC曲线选择一个合适的阈值。结果可以通过微调你的数据/ uscase /定义NSFW的模型的改进。我们不提供任何结果的准确性保证。使用者适度地结合机器学习解决方案将有助于提高性能。模型描述:我们将不适合工作的图片(NSFW)作为数据集中的积极对象,适合工作的图片作为消极对象来进行训练。所有这些被训练得图片都被打上了特定的标签。所以由于数据本身的原因,我们无法发布数据集或者其他信息。我们用非常不错的名字叫“CaffeOnSpark”的架构给“Hadoop”带来深度学习算法,并且使用Spark集群来进行模型训练的实验。在此非常感谢 CaffeOnSpark 团队。深度模型算法首先在 ImageNet 上生成了1000种数据集,之后我们调整不适合工作(NSFW)的数据集比例。我们使用了50 1by2的残差网络生成网络模型。模型通过 pynetbuilder 工具以及复制残余网络的方法会产生50层网络(每层网络只有一半的过滤器)。你可以从这里获取到更多关于模型产生的信息。更深的网络或者具有更多过滤器的网络通常会更精确。我们使用剩余(residual)网络结构来训练模型,这样可以提供恰到好处的精确度,同样模型在运行以及内存上都能保持轻量级。 标签:opennsfw
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

戴岩均Valley

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值