Eine Dog Whistle ist kodierte Sprache in Kommentaren, die für die meisten Leser harmlos erscheint, aber eine versteckte hasserfüllte, politische oder diskriminierende Bedeutung hat, die von einer bestimmten In-Gruppe verstanden wird.
In der Moderation sozialer Medien bezieht sich eine Dog Whistle auf ein Wort, einen Satz, eine Zahl, eine Emoji-Sequenz oder ein Symbol, das für gelegentliche Leser harmlos erscheint, aber eine versteckte Bedeutung hat, die von einer bestimmten Gemeinschaft verstanden wird – oft hasserfüllt, diskriminierend oder politisch extrem. Dog Whistles sind absichtlich so gestaltet, dass sie die keyword-basierte Moderation umgehen: Der wörtliche Text enthält keine markierten Wörter, aber die Bedeutung ist eindeutig feindlich gegenüber denen, die den Code verstehen. Dog Whistles entwickeln sich schnell weiter, während die Moderationssysteme aufholen, was einen ständigen Wettlauf zwischen kodierter Sprache und Erkennung schafft.
Hundepfeifen in den Kommentarbereichen von Marken sind besonders gefährlich, da sie ein feindliches Umfeld schaffen, das das Moderationsteam der Marke möglicherweise nicht erkennt. Häufige Muster sind: Zahlen-Codes, die mit Hassgruppen verbunden sind, Emoji-Sequenzen mit kodierten Bedeutungen, scheinbar neutrale Phrasen, die tatsächlich feindliche Memes sind, und historische Referenzen, die als kodierte Angriffe dienen. Da der wörtliche Text harmlos ist, sind keywordbasierte Filter nutzlos.
Die Erkennung von Hundepfeifen erfordert KI, die den kulturellen Kontext versteht, nicht nur Schlüsselwörter. Ein Schlüsselwortfilter kann eine Hundepfeife nicht erfassen, da die einzelnen Wörter nicht markiert sind – die Feindseligkeit liegt in der Kombination, dem Kontext und dem kulturellen Code. Der Klassifizierer von FeedGuardians wird auf kontinuierlich aktualisierten Datensätzen bekannter Hundepfeifen-Muster in mehreren Sprachen und Subkulturen trainiert und wöchentlich neu trainiert, um mit aufkommenden Codes Schritt zu halten.
Eine spezifische Sequenz von Emojis – einzeln harmlos – wird innerhalb einer Belästigungsgemeinschaft als diskriminierende Beleidigung verstanden. Die Sequenz erscheint wiederholt im Kommentarbereich eines Creators. Schlüsselwortfilter können sie nicht erfassen, da es keine Wörter gibt. Nur kontextbewusste KI erkennt das Muster.
Nein. Hundepfeifen sind speziell dafür entworfen, Schlüsselwortfilter zu umgehen. Die einzelnen Wörter oder Symbole sind harmlos – die Feindseligkeit liegt in der kodierten Bedeutung. Nur KI, die den kulturellen Kontext und die Musterentwicklung versteht, kann Hundepfeifen erkennen.
Der Klassifizierer wird wöchentlich auf aufkommenden kodierten Sprachmustern von Hassüberwachungsorganisationen, Plattform-Transparenzberichten und unseren eigenen plattformübergreifenden Erkennungsdaten neu trainiert. Neue Hundepfeifen sind typischerweise innerhalb von 1-2 Wochen nach ihrem Auftreten erkennbar.
Starten Sie Ihre kostenlose Testversion und erleben Sie die KI-gestützte Kommentarmoderation ab 39 $/Monat.
Kostenlose Testversion starten7-day free trial
Mehr erkunden