北京时间10月10日早间消息,Facebook旗下Instagram推出了一款机器学习工具,可以检查照片和字幕中的欺凌内容。
如果人工智能工具发现某张照片有问题,就会将其发送给Instagram社区运营团队,以便进一步评估。
Instagram发言人表示,这款人工智能工具会对字幕和评论进行探测,找到针对某人的外貌等方面发起的攻击。它还会对比和评价各种照片和字幕,以便找出含有欺凌性质的内容,例如通过并排图片来对某人进行恶意对比。
Instagram还在直播视频中推出了欺凌评论过滤器,以便在直播过程中发现并阻止冒犯性言论。Instagram今年5月还曾发布过一款过滤器,专门过滤图片和视频评论中的恶意内容。
Facebook和Twitter也推出过类似的项目,用来限制各自平台上的欺凌内容。