Conference "Hate speech on the Internet - Identifying Digital Antisemitism"

19. Oktober 2022,  Einstein Center Digital Future, Berlin

 

YouTube

By loading the video, you agree to YouTube's privacy policy.
Learn more

Load video

Part 1: Aktuelle Trends und Forschungsansätze

1) Matthias J. Becker (TU Berlin, ZfA, Decoding Antisemitism): Decoding Antisemitism – Impliziter Antisemitismus im (europäischen) Mainstream

2) Julia Ebner (UK, ISD, Autorin von “Radikalisierungsmaschinen”, “Going Dark” und “Going Mainstream”): Antisemitische Muster in Online-Verschwörungsmythos-Communities

3) Jannis Niedick (Universität Potsdam, Projekt Respond!): Respond! – Eine Studie über alltägliche Begegnungen mit antisemitischen Inhalten in sozialen Medien

YouTube

By loading the video, you agree to YouTube's privacy policy.
Learn more

Load video

Part 2: Antisemitische Narrative und Bilder in den sozialen Medien

1) Marcus Scheiber (TU Berlin): Zur Verwendung von Memes in antisemitischer Online-Kommunikation

2) Victor Tschiskale (TU Berlin): Holocaust-Relativierung in deutschsprachigen Diskursen – eine Analyse von Twitter-Debatten 2019-2022

YouTube

By loading the video, you agree to YouTube's privacy policy.
Learn more

Load video

Part 3: Ansätze zur automatisierten Erfassung von Hassrede

1) Daniel Miehling (TU Berlin): Quantitative Detektion judenfeindlicher Textstrukturen: Aspekte zur Messung von Radikalisierungstendenzen in sozialen Medien

2) Betty van Aken (BHT, NOHATE Projekt): Erkennung von Hassrede mit Deep Learning Verfahren – Erkenntnisse aus dem Projekt “NOHATE”

3) Helena Mihaljevic (HTW Berlin, Projekt Digitaler Hass): Grenzen und Möglichkeiten automatischer Erkennung von Verschwörungserzählungen in Telegram

YouTube

By loading the video, you agree to YouTube's privacy policy.
Learn more

Load video

Part 4: Evening Lecture

Gabriel Weimann (Haifa University): New Trends in Online Antisemitism

Tagungsbericht [verlinkt von HSozKult]

Hassrede im Netz – Digitalen Antisemitismus erfassen

Decoding Antisemitism – Zentrum für Antisemitismusforschung

Berlin

  1. Oktober 2022 / 10:00 – 20:00 Uhr

Joseph Wilson, Forschungsinstitut Gesellschaftlicher Zusammenhalt am Zentrum für Antisemitismusforschung, Technische Universität Berlin, j.wilson@campus.tu-berlin.de

 

Wie lässt sich Hassrede und Antisemitismus im Internet im Allgemeinen und in den sozialen Medien im Besonderen erkennen und erfassen? Welche Entwicklungen sind zu beobachten und können künstliche Intelligenz und Deep Learning im Kampf gegen Onlinehassrede (bereits) helfen?

Die Tagung Hassrede im Netz – Digitalen Antisemitismus erfassen versammelte Expert:innen aus der Linguistik, Bild- und Extremismusforschung, den Kommunikationswissenschaften und aus dem Data Science-Bereich, um potentielle Antworten auf diese Fragen zu entwickeln und aktuelle Forschungsansätze zu diskutieren.

 

Digitaler Antisemitismus äußert sich häufig in Verbindung zu aktuellen internationalen Ereignissen. Veranstalter MATTHIAS J. BECKER (Berlin) eröffnete die Tagung mit einem Verweis auf das Forschungsprojekt Decoding Antisemitism am Zentrum für Antisemitismusforschung. In dem kürzlich erschienenen 4. Diskursreport des Projektes werden antisemitische Äußerung im Zusammenhang mit der russischen Invasion in der Ukraine sowie den Terroranschlägen in Israel Anfang des Jahres 2022 besprochen. Besonders im Kontext des Ukrainekriegs beobachten die Forscher:innen, dass in sozialen Netzwerken antisemitische Narrative und Vergleiche zum Nationalsozialismus häufig verstärkt und zugleich über kommunikative Umwege artikuliert werden. Gerade solche subtilen Codes stellen eine Herausforderung für KI-Learning dar, da kontextuelles Wissen für das Erkennen der antisemitischen Äußerungen notwendig ist.

Hier setzt das Forschungsprojekt Decoding Antisemitism an, wie Becker weiter erläutert. Ein internationales Team aus neun Forscher:innen untersucht Onlinedebatten, die sich auf Diskursereignisse beziehen, um einerseits verbalen und visuellen Antisemitismus online in seiner ganzen Bandbreite zu erfassen und andererseits, um eine KI mit den annotierten Daten zu füttern sowie quantitative Untersuchungen zu ermöglichen.

 

Bezug nehmend auf ihr 2019 veröffentlichtes Buch „Radikalisierungsmaschinen“ skizzierte JULIA EBNER (London) Strategien der Neuen Rechten, um Onlinedebatten zu manipulieren und für die eigenen Zwecke zu nutzen. Auf alternativen Plattformen wie z.B. Imageboards werden alte und neue Verschwörungsmythen auf häufig satirische und humoristische Art besprochen und diskutiert. Hass gegen Frauen, der LGBTQI-Community, Impfgegner:innen-Narrative und Klimawandelskepsis mischt sich dabei mit antisemitischen Narrativen. Influencer:innen wie Kanye West (Ye) oder Attila Hildmann tragen diese Narrative anschließend in die großen medialen Plattformen und fördern insofern eine Radikalisierung des Mainstreams.

 

Wie hingegen Jugendliche mit Antisemitismus in Berührung kommen, ist Gegenstand der Forschungsprojekts Respond!, welches JANNIS NIEDICK (Potsdam) vorstellte. 47 junge Menschen wurden aufgefordert, 21 Tage lang ihren Medienkonsum zu beobachten und alle Beiträge im Zusammenhang mit jüdischem Leben, Nationalsozialismus und dem Israel-Palästina-Konflikt zu dokumentieren. In einer anschließenden qualitativen Inhaltsanalyse konnte das Forscher:innenteam feststellen, dass auch in dieser Untersuchung der Ukrainekrieg das zentrale Ereignis darstellt. Berichte über den Kriegsverlauf oder die Aufnahme von jüdischen Waisenkindern sind stets mit Analogien zum Israel-Palästina-Konflikt verknüpft. Niedick stellt fest, dass israelbezogener Antisemitismus die maßgebliche Erscheinungsform von Antisemitismus in ihren Beobachtungen darstellt und letztendlich zu einer Delegitimisierung und Dämonisierung Israels führt.

 

Über visuelle Ausdrucksformen des digitalen Antisemitismus referierte MARCUS SCHEIBER (Berlin) in einem Vortrag bezüglich Memes als multimodalem Kommunikationsformat. Memes – in der Regel Grafiken/Fotografien mit humoristischen Inhalt – forcieren eine prototypische Lesart und Interpretation innerhalb eines Wissensrahmens. Sie funktionieren dabei als Templates/Vorlagen und können innerhalb ihres Verwendungskontextes für unterschiedliche Zwecke nutzbar gemacht werden. Antisemitische Inhalte werden dabei auch implizit in Form von rhetorischen Fragen und Andeutungen transportiert. Die ursprünglich auf Imageboards verwendeten Memes haben mittlerweile Einzug auf allen Kommunikationsplattformen erhalten und fördern eine Normalisierung antisemitischer Narrative.

 

Welche Gefahren von den Agitationen des bereits von Julia Ebner erwähnten Influencers Attila Hildmann ausgehen, war Gegenstand des Vortrags von ALEXA KRUGEL (Berlin). Sie untersuchte Telegram-Nachrichten Hildmanns während den bundesweiten Coronaschutzmaßnahmen zu Beginn der Covid-19 Pandemie im Frühjahr 2020. Hildmann, der als veganer Kochbuchautor Bekanntheit erlangte, kommunizierte offenen, expliziten Antisemitismus, indem er die Behauptung aufstellte, dass Corona eine jüdische Erfindung sei, um die Weltwirtschaft zu zerstören und einen jüdischen Weltstaat zu etablieren. In den gegenüber Jüdinnen und Juden zugeschriebenen Attributen wie Homosexualität, Weiblichkeit, Schwäche und Staatenlosigkeit identifizierte Krugel hierbei Verschränkungen von Geschlecht, Sexualität und Nationalität mit Antisemitismus und betonte das Gefahrenpotential solcher Chats, da Hildmann seine Anhänger:innen auch zu Investitionen in Waffen und Kampfausrüstung animierte.

 

VICTOR TSCHISKALE (Berlin) präsentierte seine Untersuchung von holocaustrelativierenden Analogien bei Twitter. Die im Kontext von Debatten um Kopftuchverbot, Mohammed-Karikaturen, der AfD und den Corona-Maßnahmen artikulierten Gleichsetzungen, Vergleiche und Zitate wiesen alle einen explizit negativen Bezug zum Nationalsozialismus auf. In einem instrumentellen Verhältnis zu Jüdinnen und Juden wird diese Opfergruppe zu einem Begriff degradiert, welcher eine gefühlte Ungerechtigkeit verbalisiert und gleichzeitig versucht, das eigene Anliegen gegenüber Kritik zu immunisieren. Dadurch unterschieden sich auch die präsentierten Beispiele von klassischer Holocaustrelativierung und -leugnung, da hier der Nationalsozialismus als maximaler negativer Referenzrahmen instrumentalisiert wird.

 

Auch DANIEL MIEHLINGs (Berlin) aktuelles Promotionsprojekt widmet sich den beiden Plattformen Twitter und . Sein Vortrag untersucht Möglichkeiten zur Messung von sprachlichen Radikalisierungstendenzen in sozialen Medien. Miehling widmet sich dabei der Frage, welche quantitativen und KI-gestützten Verfahren zur Auswertung von Metadaten zur Untersuchung von Onlineaktivitäten geeignet sind und wie sich das Ausmaß antisemitischer Botschaften in Onlinediskursen bemessen lässt. Radikalisierungstendenzen können entlang von vier operationalisierbaren Indikatoren gemessen werden: NS-Vergleiche, Superlative, Pejorativlexeme und Dehumanisierung. Dadurch ist es möglich, Radikalisierungstendenzen in großen Textkorpora zu analysieren und so z.B. nachzuweisen, dass gewisse Events („Sturm des Reichstags“) und bestimmte „Superspreader“ (Ken Jebsen oder Eva Hermann) häufig referenziert und weitergeleitet werden und Textbotschaften in diesem Kontext eine zunehmende Radikalisierung aufweisen.


Über die bisher häufigsten Fehler der automatischen Erkennung von Hassrede referierte BETTY VAN AKEN (Berlin). Ihr Forschungsteam des Projektes „NOHATE“ sammelte bisherige Modelle und Ansätze des maschinellen Lernens und aggregierte die unterschiedlichen Methoden unter der Annahme, dass allen bisherigen? Modellen und Ansätzen bestimmte Fehler unterliefen. Dabei identifizierte das Team drei wesentliche Fehler: 1. Inkonsistenz in der Annotation von Kommentaren, sodass Algorithmen nicht erkennen konnten, ob Kommentare toxisch sind. 2. Ein zu starker Fokus auf bestimmte „Triggerwörter“, wodurch Referenzen falsch kategorisiert werden und alternative Schreibweisen nicht erkannt werden. 3. Fehlendes Weltwissen, infolge dessen Algorithmen Kontext und implizite Bedeutungen nicht erkennen können.

Van Aken und Ihre Kolleg:innen haben dank der Einführung neuer Algorithmen, die auf Transferlernen basieren, einen Paradigmenwechsel in der Forschungscommunity beobachten können. Modelle werden „vortrainiert“ und können somit Wörter in Kontexten repräsentiert und Hassrede besser erkennen.

 

HELENA MIHALJEVIC (Berlin) präsentierte ihre Forschungsergebnisse zum Potenzial der Nutzung von Perspective API zur Erkennung von antisemitischen Inhalten in Texten. Perspective API ist ein automatisierter Google-Service, der Texte auf Beleidigungen, Bedrohungen, Angriffen auf Identitäten und Toxizität untersuchen kann und regelmäßig in der Moderation von Onlineräumen, aber auch in der Forschung genutzt wird.

Aufgrund der Definition von Toxizität sollten antisemitische Sprachmuster eigentlich erkannt werden. Die von Mihaljevic hochgeladenen antisemitischen Versuchstexte wurden allerdings nicht immer als toxisch identifiziert. In der genaueren Analyse zeigte sich, dass expliziter und Post-Holocaust Antisemitismus besser erkannt wurde, während codierter Antisemitismus nicht als toxisch eingestuft wurde. Große Schwierigkeiten erkennt Mihaljevic in der Nutzung für Content Moderation auch aufgrund der fehlenden Fähigkeit zur Unterscheidung von affirmativen, kritischen und neutralen Statements im Kontext von antisemitischen Aussagen und somit letztendlich zu einer Bestrafung von Counter-Speech-Versuchen führt.

 

In der abschließenden Keynote betonte GABRIEL WEIMANN (Haifa) die Gefahr, die von digitaler Hassrede ausgeht. Mit „Fusion of Hate“ beschreibt Weimann die Verschmelzung unterschiedlicher Ideologien, die sich u. a. gegen Frauen, Liberale, Migrant:innen, Muslim:innen und Hispanoamerikaner:innen richten, aber in der Regel Jüdinnen und Juden als Urheber:innen aller gesellschaftlichen Probleme verstehen. Während es schwieriger geworden sei, Hassideologien auf Plattformen wie YouTube, Facebook und Instagram zu verbreiten, identifiziert Weimanns Team das chinesische Videoportal TikTok als relevantestes Medium, da es einerseits besonders unter jungen Menschen an großer Popularität gewonnen hat, anderseits aber wenig gegen Hassrede und Antisemitismus unternähme. Auch das Darknet und virtuelle Bibliotheken müssten von Forscher:innen in den Blick genommen werden, da Hassgruppen in einer Art von Katz und Maus-Spiel ständig Plattformen und Kommunikationsmethoden wechseln würden, um Überwachung und Verfolgung zu umgehen.

Weimann, Sohn zweier Holocaustüberlebenden, erinnerte die Tagungsteilnehmenden an die Gefahr, die von Hassrede ausgeht, dass seine Familie auch durch Antisemitismus umkam und häufig auf Worte Taten folgen.

 

 

Konferenzübersicht:

 

Matthias J. Becker (Berlin): Decoding Antisemitism – Impliziter Antisemitismus im europäischen Mainstream

 

Julia Ebner (London): Antisemitische Muster in Online-Verschwörungsmythos-Communitys

 

Jannis Niedick (Potsdam): Respond! – Eine Studie über alltägliche Begegnungen mit antisemitischen Inhalten in sozialen Medien

 

Marcus Scheiber (Berlin): Zur Verwendung von Memes in antisemitischer Online-Kommunikation

 

Alexa Krugel (Berlin): “Weißt du wer hinter allem steckt?” Covid19-Leugnung, Antisemitismus und Verschwörungserzählungen bei Telegram

 

Victor Tschiskale (Berlin): Holocaust-Relativierung in deutschsprachigen Diskursen: eine Analyse von Twitter-Debatten 2019-2022

 

Daniel Miehling (Berlin): Quantitative Detektion judenfeindlicher Textstrukturen: Aspekte zur Messung von Radikalisierungstendenzen in sozialen Medien

 

Betty van Aken (Berlin): Erkennung von Hassrede mit Deep Learning Verfahren – Technische Herausforderungen und aktuelle Ansätze

 

Helena Mihaljevic (Berlin): Grenzen und Möglichkeiten automatischer Erkennung von Verschwörungserzählungen in Telegram

 

Gabriel Weimann (Haifa): New Trends in Online Antisemitism

 

Contact

TU Berlin
Zentrum für Antisemitismusforschung (ZfA)
Kaiserin-Augusta-Allee 104–106, 10553 Berlin
info@decoding-antisemitism.eu