NSFW Detector(Not Safe For Work,简称 NSFW)是开源的检测不适宜内容工具,NSFW Detector能识别图像、PDF、视频文件中的不适宜内容。工具基于Google的vit-base-patch16-224-in21k
模型,支持仅CPU推理,无需GPU,可在多数服务器上运行。NSFW Detector基于API提供服务,易于集成到其他应用,支持Docker部署,适合分布式部署。NSFW Detector自动用多CPU加速推理,完全本地运行保护数据安全,支持多种文件类型检测。
vit-base-patch16-224-in21k
模型,一个基于Vision Transformer(ViT)的深度学习模型,专门用于图像识别和分类任务。特征提取:模型基于训练学习从输入的图像、视频或文档中提取特征。分类器:提取的特征被送入分类器,分类器根据训练数据判断内容是否属于NSFW类别。NSFW Detector的项目地址GitHub仓库:https://github.com/tmplink/nsfw_detectorNSFW Detector的应用场景社交媒体平台:自动检测和过滤用户上传的不适宜内容,保护社区环境,遵守法律法规。内容共享网站:在用户上传图片、视频或文档时进行自动检测,防止不适宜内容的传播。企业内部网络:在企业内部网络中部署,防止员工访问或分享不适宜内容,维护专业工作环境。在线广告和营销:确保广告内容的合规性,避免因不适宜内容而损害品牌形象。在线教育平台:保护学习环境,防止学生接触到不适宜的学习材料。