Una 'hate raid' es un ataque masivo coordinado en una transmisión en vivo o cuenta de redes sociales donde grandes cantidades de cuentas bot o troll inundan el objetivo con mensajes de odio, insultos y acoso.
Un raid de odio es una forma severa de brigada que apunta específicamente a transmisiones en vivo y cuentas de redes sociales con oleadas coordinadas de mensajes odiosos, discriminatorios o amenazantes. Los raids de odio suelen involucrar cientos de cuentas bot o trolls coordinados inundando un chat en vivo o sección de comentarios simultáneamente con insultos, amenazas y acoso dirigido — a menudo basado en la raza, género, sexualidad u otras características de identidad de la víctima. El término ganó prominencia en 2021 durante la crisis de raids de odio en Twitch y desde entonces se ha extendido a TikTok Live, YouTube Live e Instagram Live.
Los raids de odio se organizan a través de plataformas externas (Discord, Telegram, 4chan). Un coordinador identifica un objetivo — típicamente un creador de un grupo marginado o una marca que ha tomado una postura pública sobre temas sociales — y comparte la URL de la transmisión en vivo del objetivo con instrucciones y plantillas de mensajes. Los participantes luego inundan el chat en vivo simultáneamente, utilizando tanto cuentas manuales como enjambres de bots automatizados. El ataque está diseñado para ser abrumador, traumático para el objetivo y visible para toda la audiencia en vivo.
Defenderse de los raids de odio requiere: (1) moderación de IA que detecta la velocidad y los patrones semánticos de un raid en segundos, (2) modo de bloqueo automático que requiere que los nuevos comentaristas sean aprobados antes de que sus mensajes aparezcan, (3) listas de bloqueo precargadas de cuentas de raids de odio conocidas y patrones de insultos, y (4) informes post-raid a la plataforma y, cuando hay amenazas involucradas, a las fuerzas del orden. El sistema de detección de anti-raid de FeedGuardians se activa dentro de los 60 segundos de detectar un patrón de raid de odio.
Durante un evento de compras en vivo organizado por una marca de propiedad minoritaria, más de 300 cuentas bot inundan el chat en vivo con insultos raciales. Los moderadores humanos se ven abrumados en 30 segundos. La detección de raids de FeedGuardians activa el modo de bloqueo en menos de 60 segundos, deteniendo el ataque visible y permitiendo que el evento continúe.
Un creador trans se conecta en vivo para discutir un nuevo video. En 10 minutos, un ataque coordinado de un foro de odio inunda el chat con insultos transfóbicos y amenazas de doxxing. El creador termina la transmisión — una victoria directa en la supresión de contenido para los atacantes.
Con la moderación de IA como FeedGuardians, los patrones de raid de odio se detectan en 60 segundos basándose en picos de velocidad, agrupamiento semántico (mensajes de odio idénticos o similares) y agrupamiento de cuentas (muchas cuentas nuevas/bot comentando simultáneamente).
Si tienes moderación de IA con detección de anti-raid, debería activarse automáticamente. Si no: habilita inmediatamente el modo de aprobación de comentarios, no interactúes con los atacantes, termina la transmisión si el ataque es abrumador, documenta con capturas de pantalla e informa a la plataforma y (si se hacen amenazas) a las fuerzas del orden.
En muchas jurisdicciones, sí — los raids de odio pueden constituir acoso criminal, discurso de odio, ciberacoso o incitación. Varios estados de EE. UU. y estados miembros de la UE han procesado campañas organizadas de raids de odio bajo las leyes existentes de acoso y delitos de odio.
Inicia tu prueba gratuita y experimenta la moderación de comentarios impulsada por IA a partir de $39/mes.
Iniciar Prueba Gratuita7-day free trial
Explorar Más