NSFWJS 开源项目教程

NSFWJS 开源项目教程

项目地址:https://gitcode.com/gh_mirrors/ns/nsfwjs

1. 项目的目录结构及介绍

NSFWJS 项目的目录结构如下:

nsfwjs/
├── examples/
│   ├── nsfw_demo/
│   └── minimal_demo/
├── lib/
├── node_modules/
├── scripts/
├── src/
│   ├── index.ts
│   └── ...
├── .gitignore
├── .npmignore
├── .prettierrc
├── LICENSE
├── README.md
├── package.json
├── tsconfig.json
└── yarn.lock

目录介绍

  • examples/: 包含项目的示例代码,如 nsfw_demominimal_demo
  • lib/: 编译后的 JavaScript 文件。
  • node_modules/: 项目依赖的第三方模块。
  • scripts/: 包含一些脚本文件,用于项目的构建和部署。
  • src/: 项目的源代码,主要包含 TypeScript 文件。
  • .gitignore: Git 忽略文件列表。
  • .npmignore: npm 发布时忽略的文件列表。
  • .prettierrc: Prettier 代码格式化配置文件。
  • LICENSE: 项目许可证。
  • README.md: 项目说明文档。
  • package.json: 项目配置文件,包含依赖、脚本等信息。
  • tsconfig.json: TypeScript 编译配置文件。
  • yarn.lock: Yarn 包管理器生成的锁定文件。

2. 项目的启动文件介绍

项目的启动文件位于 src/index.ts,这是项目的入口文件。它主要负责加载和初始化 NSFWJS 模型,并提供对外的 API 接口。

// src/index.ts
import * as tf from '@tensorflow/tfjs';
import { load } from './load';
import { NSFWClassifier } from './NSFWClassifier';

export { load, NSFWClassifier };

启动文件功能

  • 导入 TensorFlow.js 库。
  • 导入 load 函数和 NSFWClassifier 类。
  • 导出 loadNSFWClassifier 供外部使用。

3. 项目的配置文件介绍

项目的配置文件主要包括 package.jsontsconfig.json

package.json

package.json 文件包含了项目的元数据和依赖信息,以及一些脚本命令。

{
  "name": "nsfwjs",
  "version": "2.4.1",
  "description": "NSFW detection on the client-side via TensorFlow.js",
  "main": "lib/index.js",
  "types": "lib/index.d.ts",
  "scripts": {
    "build": "yarn clean && yarn compile",
    "clean": "rimraf lib",
    "compile": "tsc -p tsconfig.json",
    "prepare": "yarn build",
    "test": "jest"
  },
  "dependencies": {
    "@tensorflow/tfjs": "^3.8.0"
  },
  "devDependencies": {
    "@types/jest": "^26.0.23",
    "jest": "^26.6.3",
    "rimraf": "^3.0.2",
    "ts-jest": "^26.5.6",
    "typescript": "^4.2.4"
  },
  "peerDependencies": {
    "@tensorflow/tfjs": "^3.8.0"
  },
  "keywords": [
    "nsfw",
    "tensorflow",
    "tensorflowjs",
    "nsfwjs",
    "pornography",
    "safe",
    "content",
    "detection"
  ],
  "author": "Gant Laborde",
  "license": "MIT",
  "repository": {
    "type": "git",
    "url": "git+https://github.com/infinitered/nsfwjs.git"
  },
  "bugs": {
    "url": "https://github.com/infinitered/nsfwjs/issues"
  },
  "homepage": "https://github.com/infinitered/nsfwjs#readme

nsfwjs NSFW detection on the client-side via TensorFlow.js nsfwjs 项目地址: https://gitcode.com/gh_mirrors/ns/nsfwjs

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

使用:网络需要在图像和输出概率(评分0-1)之间过滤不适合工作的图片。评分<0.2表示图像具有较高概率是安全的。评分>0.8表明极有可能是不适合工作(NSFW)图像。我们建议开发者根据用例和图像类型的不同选择合适的阈值。根据使用情况、定义以及公差的不同会产生误差。理想情况下,开发人员应该创建一个评价集,根据“什么是安全的”对他们的应用程序进行定义,然后适合ROC曲线选择一个合适的阈值。结果可以通过微调你的数据/ uscase /定义NSFW的模型的改进。我们不提供任何结果的准确性保证。使用者适度地结合机器学习解决方案将有助于提高性能。模型描述:我们将不适合工作的图片(NSFW)作为数据集中的积极对象,适合工作的图片作为消极对象来进行训练。所有这些被训练得图片都被打上了特定的标签。所以由于数据本身的原因,我们无法发布数据集或者其他信息。我们用非常不错的名字叫“CaffeOnSpark”的架构给“Hadoop”带来深度学习算法,并且使用Spark集群来进行模型训练的实验。在此非常感谢 CaffeOnSpark 团队。深度模型算法首先在 ImageNet 上生成了1000种数据集,之后我们调整不适合工作(NSFW)的数据集比例。我们使用了50 1by2的残差网络生成网络模型。模型通过 pynetbuilder 工具以及复制残余网络的方法会产生50层网络(每层网络只有一半的过滤器)。你可以从这里获取到更多关于模型产生的信息。更深的网络或者具有更多过滤器的网络通常会更精确。我们使用剩余(residual)网络结构来训练模型,这样可以提供恰到好处的精确度,同样模型在运行以及内存上都能保持轻量级。 标签:opennsfw
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

宣利权Counsellor

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值