Fachtag Mit KI gegen Antisemitismus und Rassismus gab Einblick in Forschungserkenntnisse und Potenziale

Das Forschungsnetzwerk Antisemitismus im 21. Jahrhundert und das Wissensnetzwerk Rassismusforschung luden am 03.06.2025 zur Diskussion über Chancen und Risiken von KI ein.

Künstliche Intelligenz (KI) ist allgegenwärtig – ob bewusst oder unbewusst, wir alle nutzen sie täglich. Häufig wird KI als rein rechnerisch-technische Instanz verstanden, die unvoreingenommene Antworten liefert. Dass dem nicht so ist, wurde in den Vorträgen von Jan Fillies, Jessica Wulf und Serhat Karakayali eindrucksvoll aufgezeigt. KI-Systeme sind nur in der Lage, Antworten basierend auf den Daten zu generieren, mit denen sie vorher „gefüttert“, also angelernt wurden. Wenn die Datensätze und die menschlichen Moderatoren und Annotatoren einseitig sind, wird auch die KI-generierte Antwort einseitig und kann sich durch stete ständige selbstreferenzielle Wiederholungen manifestieren. Und auch die Perspektive der Nutzer:innen zeigt negative Auswirkungen, wie bereits mehrere Studien belegen. Einseitig besetzte Entscheidungsgremien verstehen oft nicht die Heterogenität ihres Umfelds, sodass (unbewusste) Ausgrenzungsmechanismen in KI-generierte Lösungen implementiert werden. Das kann etwa bei automatisierten Verwaltungsvorgängen oder KI-gesteuerten Sensoren zu rassistischer Ausgrenzung führen, wie Jessica Wulf erläuterte. Serhat Karakayali skizzierte in seinem Vortrag zur „Grammatik des Bias“ Mechanismen der Reproduktion von Diskriminierung und Rassismus durch Large Language Models (LLM) und Algorithmen sowie mögliche De-Biasing-Strategien. Zudem schlug er mögliche Forschungsperspektiven in diesem Feld vor, welche er beispielsweise in der Analyse systemübergreifender Interaktionen und Sprechakte verortet. 

Daraus folgt: Je qualitativ hochwertiger, quantitativ umfassender und inhaltlich vielfältiger die Datensätze sind, desto differenzierter werden auch die Antworten sein. Doch so leicht ist es nicht. Die Nutzung qualitativ hochwertiger Datensätzen ist kostenintensiv und die Bearbeitung aufwendig, was gerade bei Projekten aus öffentlichen Mitteln schnell an seine finanziellen Grenzen stößt. Gleichzeitig bleibt die Datenbasis bei großen, kommerziellen KI-Lösungsangeboten intransparent, so dass besondere Vorsicht geboten ist. 

Dennoch gibt es auch positive Effekte und Chancen, die KI bieten kann. So wurde im Projekt Decoding Antisemitism, vorgestellt von Victor Tschiskale, eine KI entwickelt, die antisemitische Hassrede unterschiedlicher Formate – Begriffe, Emojis und Floskeln – erkennt. Damit können beispielsweise Online-Redaktionen von Zeitungen ihre Kommentarfunktionen gezielt moderieren. So werden differenzierende Stimmen nicht unterdrückt. Allerdings zeigen sich hier auch deutliche Grenzen: User mit extremen Ansichten sind der KI oft einen Schritt voraus, da sie immer wieder neue Codes und Kombinationen entwickeln, die von der KI noch nicht erfasst, von der Community aber bereits verstanden werden. Somit ist eine kontinuierliche Betreuung und Weiterentwicklung notwendig, was bei zeitlich und finanziell begrenzten Projekten problematisch sein kann. Ergänzt wurden die Ausführungen durch den Beitrag von Elisabeth Steffen, die zu KI-basierter Erkennung von Antisemitismus forscht und Perspective API als Tool untersucht hat, um die Toxizität von Texten zu ermitteln.  

Jobst und Frederick Paul stellten im weiteren Verlauf ein am Duisburger Institut für Sprach- und Sozialforschung angesiedeltes Projekt vor, das auf Basis der Binarismustheorie eine KI anlernt, um die Funktionsweise von diskriminierenden Texten nachverfolgbar und analysierbar zu machen. Und Özen Odaĝ von der Touro University Berlin erläuterte dem Publikum die Arbeitsweise der sich ebenfalls noch in der Entwicklung befindlichen KI-gesteuerten MATE-App, mit deren Hilfe Jugendliche Wissens- und Reflektionsangebote zum Nahostkonflikt erhalten. Diese wird als Angebot der politischen Bildung multiperspektivisch den Diskursraum öffnen und Empathie erzeugen. 

Die von Said Haider vorgestellt App YOUNA („You are Not Alone“) verfolgt den Ansatz, Betroffenen von Rassismus erste, niedrigschwellige Hilfestellung zu bieten. Neben persönlicher, KI-generierter Ansprache vermittelt die App entsprechende Beratungs- und Unterstützungsangebote je nach den geschilderten Vorfällen.

Wie über Social Media Menschen erreicht werden können und welche Gefahren dies gleichzeitig mit sich bringt, präsentierte der Sozialwissenschaftler Özgür Özvatan. Durch die Verbreitung von pro-demokratischen Botschaften können erfolgreich Menschen angesprochen werden, wie eine Aktion von Transformakers im Vorfeld der Bundestagswahl 2025 belegt. Andererseits warnte Özvatan davor, dass mithilfe von Konsumprofilen auf Social Media voreilige Schlüsse über die persönliche Einstellung von Usern gezogen werden können, indem jeder registrierte Besuch unabhängig seiner Dauer, für Rückschlüsse herangezogen wird. 

Die Erkenntnis aus der Diskussion ist klar: Der Umgang mit KI muss gelernt und vor allem reflektiert werden. Das erfordert eine kontinuierliche, politisch gewollte Unterstützung. Denn KI kann auch ein hilfreiches Tool sein, um Menschen zu empowern und die Vielfalt unserer demokratischen Gesellschaft sichtbar zu halten.