基于人工智能的实时不适当内容检测模型
1 现有研究方法概述
在各类社交媒体平台上,用户对话常常偏离正轨,出现不适当的情况,如辱骂、发表粗鲁无礼的评论等。为解决这一问题,众多学者提出了不同的方法:
- Yenala等人 :提出基于深度学习的方法检测文本中的不适当内容,考虑搜索引擎查询补全建议和信使中用户对话两种场景,分别使用CNN、Bi - LSTM、LSTM等模型,并评估了技术性能。
- Anitigoni等人 :详细介绍了大规模众包和对Twitter辱骂行为的特征分析,但这些方法因考虑静态数据和有限的不适当内容类别,无法随时间适应。
- Modha等人 :提出检测和可视化社交媒体平台上在线攻击(一种特定的仇恨言论)的方法,考虑了公开攻击、隐蔽攻击和非攻击三种类型,使用SVM、CNN等模型和标准数据库。
- Monirah等人 :提出用于网络欺凌检测的新型CNN - CB深度学习方法,由嵌入、卷积、池化和密集四层组成,准确率达95%。
- Rajesh等人 :开发了名为Block - shame的自动程序,用于检测Twitter上的公开羞辱推文,将羞辱推文分为六种类型,并使用六个SVM分类器进行分类。
- Salawu等人 :进行了广泛的文献调查,将审查分为监督学习、基于词典、基于规则和混合主动四类,使用SVM、朴素贝叶斯等方法识别欺凌行为,但仅局限于网络欺凌。
- Fortunatus等人
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



