Une attaque haineuse est une attaque de masse coordonnée sur un flux en direct ou un compte de médias sociaux où un grand nombre de comptes bots ou trolls inondent la cible de messages haineux, d'insultes et de harcèlement.
Un raid de haine est une forme sévère de brigading ciblant spécifiquement les diffusions en direct et les comptes de réseaux sociaux avec des vagues coordonnées de messages haineux, discriminatoires ou menaçants. Les raids de haine impliquent généralement des centaines de comptes bots ou de trolls coordonnés inondant simultanément un chat en direct ou une section de commentaires avec des insultes, des menaces et du harcèlement ciblé — souvent basé sur la race, le genre, la sexualité ou d'autres caractéristiques d'identité de la victime. Le terme a gagné en notoriété en 2021 lors de la crise des raids de haine sur Twitch et s'est depuis répandu sur TikTok Live, YouTube Live et Instagram Live.
Les raids de haine sont organisés via des plateformes externes (Discord, Telegram, 4chan). Un coordinateur identifie une cible — généralement un créateur d'un groupe marginalisé ou une marque ayant pris une position publique sur des questions sociales — et partage l'URL de la diffusion en direct de la cible avec des instructions et des modèles de messages. Les participants inondent ensuite le chat en direct simultanément, utilisant à la fois des comptes manuels et des essaims de bots automatisés. L'attaque est conçue pour être écrasante, traumatisante pour la cible, et visible pour l'ensemble du public en direct.
Se défendre contre les raids de haine nécessite : (1) une modération AI qui détecte la vitesse et les modèles sémantiques d'un raid en quelques secondes, (2) un mode de verrouillage automatique qui exige que les nouveaux commentateurs soient approuvés avant que leurs messages n'apparaissent, (3) des listes de blocage préchargées de comptes de raids de haine connus et de modèles d'insultes, et (4) des rapports post-raid à la plateforme et, lorsque des menaces sont impliquées, aux forces de l'ordre. Le système de détection anti-raid de FeedGuardians s'active dans les 60 secondes suivant la détection d'un modèle de raid de haine.
Lors d'un événement de shopping en direct organisé par une marque appartenant à des minorités, plus de 300 comptes bots inondent le chat en direct avec des insultes raciales. Les modérateurs humains sont submergés en 30 secondes. La détection de raid de FeedGuardians active le mode de verrouillage en moins de 60 secondes, arrêtant l'attaque visible et permettant à l'événement de se poursuivre.
Un créateur trans se met en direct pour discuter d'une nouvelle vidéo. Dans les 10 minutes, une attaque coordonnée d'un forum de haine inonde le chat d'insultes transphobes et de menaces de doxxing. Le créateur met fin à la diffusion — une victoire directe de suppression de contenu pour les attaquants.
Avec une modération AI comme FeedGuardians, les modèles de raid de haine sont détectés dans les 60 secondes sur la base des pics de vitesse, du regroupement sémantique (messages haineux identiques ou similaires) et du regroupement de comptes (de nombreux nouveaux/comptes bots commentant simultanément).
Si vous avez une modération AI avec détection anti-raid, elle devrait s'activer automatiquement. Sinon : activez immédiatement le mode d'approbation des commentaires, ne vous engagez pas avec les attaquants, mettez fin à la diffusion si l'attaque est écrasante, documentez avec des captures d'écran, et signalez à la plateforme et (si des menaces sont faites) aux forces de l'ordre.
Dans de nombreuses juridictions, oui — les raids de haine peuvent constituer du harcèlement criminel, des discours de haine, du cyberharcèlement ou de l'incitation. Plusieurs États américains et États membres de l'UE ont poursuivi des campagnes de raids de haine organisées en vertu des lois existantes sur le harcèlement et les crimes de haine.
Commencez votre essai gratuit et découvrez la modération de commentaires alimentée par l'IA à partir de 39 $/mois.
Commencer l'Essai Gratuit7-day free trial
Explorer Plus