Ein Hate Raid ist ein koordinierter Massenaangriff auf einen Livestream oder ein Social-Media-Konto, bei dem große Mengen von Bot- oder Trollkonten das Ziel mit hasserfüllten Nachrichten, Beleidigungen und Belästigungen überfluten.
Ein Hass-Raid ist eine schwere Form des Brigadings, die speziell auf Live-Streams und Social-Media-Konten mit koordinierten Wellen von hasserfüllten, diskriminierenden oder bedrohlichen Nachrichten abzielt. Hass-Raids beinhalten typischerweise Hunderte von Bot-Konten oder koordinierten Trollen, die gleichzeitig einen Live-Chat oder eine Kommentarsektion mit Schimpfwörtern, Drohungen und gezielter Belästigung überfluten — oft basierend auf der Rasse, dem Geschlecht, der Sexualität oder anderen Identitätsmerkmalen des Opfers. Der Begriff gewann 2021 während der Twitch-Hass-Raid-Krise an Bedeutung und hat sich seitdem auf TikTok Live, YouTube Live und Instagram Live ausgeweitet.
Hass-Raids werden über externe Plattformen (Discord, Telegram, 4chan) organisiert. Ein Koordinator identifiziert ein Ziel — typischerweise einen Creator aus einer marginalisierten Gruppe oder eine Marke, die sich öffentlich zu sozialen Themen geäußert hat — und teilt die URL des Live-Streams des Ziels mit Anweisungen und Nachrichtentemplates. Die Teilnehmer überfluten dann gleichzeitig den Live-Chat, indem sie sowohl manuelle Konten als auch automatisierte Bot-Schwärme verwenden. Der Angriff ist darauf ausgelegt, überwältigend und traumatisch für das Ziel zu sein und für das gesamte Live-Publikum sichtbar zu sein.
Sich gegen Hass-Raids zu verteidigen erfordert: (1) KI-Moderation, die die Geschwindigkeit und semantischen Muster eines Raids innerhalb von Sekunden erkennt, (2) einen automatischen Sperrmodus, der erfordert, dass neue Kommentatoren genehmigt werden, bevor ihre Nachrichten erscheinen, (3) vorab geladene Blocklisten bekannter Hass-Raid-Konten und Schimpfwörtermuster und (4) Berichterstattung nach dem Raid an die Plattform und, wenn Drohungen im Spiel sind, an die Strafverfolgungsbehörden. Das Anti-Raid-Erkennungssystem von FeedGuardians aktiviert sich innerhalb von 60 Sekunden, nachdem ein Muster eines Hass-Raids erkannt wurde.
Während eines Live-Shopping-Events, das von einer von Minderheiten geführten Marke veranstaltet wird, überfluten 300+ Bot-Konten den Live-Chat mit rassistischen Schimpfwörtern. Die menschlichen Moderatoren sind innerhalb von 30 Sekunden überwältigt. Die Raid-Erkennung von FeedGuardians aktiviert den Sperrmodus in weniger als 60 Sekunden, stoppt den sichtbaren Angriff und ermöglicht es, dass das Event fortgesetzt wird.
Ein trans Creator geht live, um ein neues Video zu besprechen. Innerhalb von 10 Minuten überflutet ein koordinierter Angriff von einem Hass-Forum den Chat mit transphoben Schimpfwörtern und Drohungen. Der Creator beendet den Stream — ein direkter Sieg für die Angreifer in der Inhaltsunterdrückung.
Mit KI-Moderation wie FeedGuardians werden Muster von Hass-Raids innerhalb von 60 Sekunden anhand von Geschwindigkeitsspitzen, semantischer Clusterbildung (identische oder ähnliche Hassnachrichten) und Kontenclustering (viele neue/Bot-Konten, die gleichzeitig kommentieren) erkannt.
Wenn Sie KI-Moderation mit Anti-Raid-Erkennung haben, sollte sie automatisch aktiviert werden. Wenn nicht: Aktivieren Sie sofort den Kommentarfreigabemodus, engagieren Sie sich nicht mit Angreifern, beenden Sie den Stream, wenn der Angriff überwältigend ist, dokumentieren Sie mit Screenshots und berichten Sie an die Plattform und (wenn Drohungen ausgesprochen werden) an die Strafverfolgungsbehörden.
In vielen Rechtsordnungen ja — Hass-Raids können als kriminelle Belästigung, Hassrede, Cyber-Stalking oder Aufstachelung gelten. Mehrere US-Bundesstaaten und EU-Mitgliedstaaten haben organisierte Hass-Raid-Kampagnen unter bestehenden Belästigungs- und Hassverbrechensgesetzen verfolgt.
Starten Sie Ihre kostenlose Testversion und erleben Sie die KI-gestützte Kommentarmoderation ab 39 $/Monat.
Kostenlose Testversion starten7-day free trial
Mehr erkunden