据包括印度裔人士在内的研究人员称,新的人工智能(ai)算法可以随着在线社交媒体对话的发展而对其进行监视,这可能会导致将来发现在线巨魔的一种有效且自动化的方式。
要防止在线骚扰,需要快速检测到令人反感的,骚扰的和负面的社交媒体帖子,进而需要监视在线互动。
当前获取此类社交媒体数据的方法要么完全自动化,而且无法解释,要么依赖一组静态的关键字,而这些关键字很快就会过时。
美国加州理工学院(caltech)的maya srikanth认为,这两种方法都不是很有效。
srikanth说:“让人类尝试手工完成这项工作是不可扩展的,而这些人类可能有偏见。”
她说:“另一方面,关键字搜索受到在线对话发展速度的困扰。新术语的出现和旧术语的含义发生了变化,因此真诚地使用一天的关键字可能会在第二天被讽刺。”
包括来自加州理工学院的anima anandkumar在内的团队使用了glove(全球单词表示向量)模型,该模型使用机器学习算法来发现新的相关关键字。
机器学习是ai的一种应用,它使系统能够自动学习并从经验中进行改进,而无需进行明确的编程。
glove是一个词嵌入模型,意味着它代表向量空间中的词,其中两个词之间的“距离”是其语言或语义相似性的量度。
从一个关键字开始,此模型可用于查找与该单词密切相关的其他关键字,以揭示实际使用的相关术语的群集。
例如,在twitter上搜索对话中对“ metoo”的使用,产生了一系列相关的标签,例如“ supportsurvivors”,“ imwithher”和“ notsilent”。
这种方法为研究人员提供了动态且不断发展的关键字集来进行搜索。
但是,仅仅知道某个对话是否与感兴趣的话题有关还不够。研究人员说,背景很重要。
为此,glove显示了某些关键字的关联程度,提供了有关其用法的输入。
例如,在一个专门针对厌女症的在线reddit论坛中,“女性”一词与“性”,“阴性”和“性交”密切相关。
在有关#metoo运动的twitter帖子中,“女性”一词更可能与“公司”,“欲望”和“受害者”这两个术语相关联。
研究人员说,该项目是一个概念证明,旨在有朝一日为社交媒体平台提供一种更强大的工具来发现在线骚扰。
anandkumar说:“人工智能研究领域变得越来越具有包容性,但总有人抵制变革。”
她说:“希望我们现在正在开发的工具能够在将来帮助应对各种骚扰。”
该研究于去年12月14日在加拿大温哥华神经信息处理系统会议上的ai for social good研讨会上进行了介绍。