仇恨袭击是对直播或社交媒体账户的协调性大规模攻击,其中大量机器人或水军账户向目标发送仇恨信息、侮辱和骚扰。
仇恨袭击是一种严重的集体攻击,专门针对直播和社交媒体账户,伴随着协调的仇恨、歧视或威胁信息的浪潮。仇恨袭击通常涉及数百个机器人账户或协调的网络同时涌入直播聊天或评论区,发布侮辱性言论、威胁和针对性的骚扰——通常基于受害者的种族、性别、性取向或其他身份特征。这个术语在 2021 年 Twitch 仇恨袭击危机期间获得了关注,并随后传播到 TikTok Live、YouTube Live 和 Instagram Live。
仇恨袭击通过外部平台(Discord、Telegram、4chan)组织。协调者确定目标——通常是来自边缘群体的创作者或在社会问题上采取公开立场的品牌——并与参与者分享目标的直播 URL 以及说明和消息模板。参与者随后同时涌入直播聊天,使用手动账户和自动机器人群体。攻击旨在造成压倒性的效果,对目标造成创伤,并对整个直播观众可见。
抵御仇恨袭击需要:(1)AI 监控,能够在几秒钟内检测到袭击的速度和语义模式,(2)自动锁定模式,要求新评论者在其消息出现之前获得批准,(3)预加载已知仇恨袭击账户和侮辱性模式的黑名单,以及(4)袭击后向平台报告,并在涉及威胁时向执法部门报告。FeedGuardians 的反袭击检测系统在检测到仇恨袭击模式后 60 秒内激活。
在一家少数族裔拥有的品牌主办的直播购物活动中,300 多个机器人账户涌入直播聊天,发布种族侮辱。人类版主在 30 秒内被淹没。FeedGuardians 的袭击检测在不到 60 秒的时间内激活锁定模式,停止了可见的攻击,使活动得以继续。
一位跨性别创作者直播讨论新视频。在 10 分钟内,来自仇恨论坛的协调攻击涌入聊天,发布跨性别侮辱和人肉搜索威胁。创作者结束了直播——这是攻击者直接的内容压制胜利。
通过像 FeedGuardians 这样的 AI 监控,仇恨袭击模式可以在 60 秒内被检测到,基于速度峰值、语义聚类(相同或相似的仇恨信息)和账户聚类(许多新账户/机器人账户同时评论)。
如果你有带有反袭击检测的 AI 监控,它应该会自动激活。如果没有:立即启用评论审批模式,不要与攻击者互动,如果攻击过于猛烈则结束直播,记录屏幕截图,并向平台报告(如果有威胁则向执法部门报告)。
在许多司法管辖区,答案是肯定的——仇恨袭击可能构成刑事骚扰、仇恨言论、网络跟踪或煽动。美国多个州和欧盟成员国已根据现有的骚扰和仇恨犯罪法起诉组织的仇恨袭击活动。