Dem sprachlichen Hass auf der Spur

Künstliche Lebensformen, die uns Menschen in allen Themenbereichen verstehen und sich mit uns unterhalten können, werde es noch lange nicht geben, prognostiziert Michael Wiegand, der am Digital Age Research Center (D!ARC) der Universität Klagenfurt als Computerlinguist forscht. Er hat sich auf die Erkennung von Hate Speech spezialisiert und erklärt uns, was Algorithmen lernen müssen, um Beleidigungen verlässlich zu orten.

Wir haben die Maschine, die mit einer formalen Sprache arbeitet, auf der einen Seite und die natürliche Sprache auf der anderen. Worin liegt das Verständigungsproblem zwischen den beiden?
Die natürliche Sprache hat die Eigenschaft, dass sie notorisch mehrdeutig ist, während die formale Sprache, wie wir sie beispielsweise von den Programmiersprachen her kennen, immer mit eindeutigen Befehlen arbeitet. Nehmen wir als Beispiel den Begriff „Bank“. Wenn ich ihn einfach so in den Raum werfe, werden Sie nicht wissen, ob ich über ein Geldinstitut oder eine Sitzgelegenheit spreche. Wenn ich das aber in einen Kontext stelle, wird es leichter, zum Beispiel im Satz: „Ich war gerade bei der Bank, um Geld abzuholen.“ Nun ist es sehr schwierig, die Bedeutung des Begriffs im Kontext so zu beschreiben, dass ein Rechner sie daraus ablesen kann. Das ist das prinzipielle Problem.

Gibt es in der Computerlinguistik einen Ansatz, wie man die richtige Interpretation von mehrdeutigen Begriffen einer Maschine anlernt?
Es gibt ein großes Missverständnis die Computerlinguistik betreffend. Wir haben in unserem Fach nicht das Ziel, ein Programm zu bauen, das generell alle Facetten von Sprache versteht. Das ist viel zu kompliziert. Stattdessen beschäftigen wir uns mit kleineren Gebieten, die wir auch für viele Anwendungsfelder lohnend verbessern können.

Die Idee, dass wir irgendwann mit einem Roboter über das aktuelle Weltgeschehen und die Politik diskutieren, ist also Ihrer Ansicht nach utopisch?
Ja, davon sind wir weit entfernt. Wenn wir uns Chatbots wie Alexa oder Siri ansehen, erkennen wir, dass diese eng auf bestimmte Anwendungen zugeschnitten sind. Das Programm kann mir sagen, wie das Wetter morgen sein wird, oder aus meinem Terminkalender vorlesen. Eine Konversation über ein willkürliches Thema funktioniert aber nicht. Um solche Komponenten möglich zu machen, brauchen wir nicht nur Linguistik, sondern Weltwissen für die Maschine. Es gibt einzelne Debattierprogramme als Forschungsprototypen, die zu bestimmten Fragestellungen Pro- und Contra-Argumente liefern, die auf Darstellungen in entsprechenden Internetplattformen fußen. Sie können also nur wiedergeben, was ein Mensch geäußert oder geschrieben hat. Die Codierung von Weltwissen, die es für ein realistisches Gespräch auf Augenhöhe brauchen würde, ist sehr schwierig. Ich kenne hierfür noch keinen erfolgversprechenden Ansatz.

Einer Ihrer Schwerpunkte ist die automatische Erkennung von Hate Speech, also beleidigenden Äußerungen, im digitalen Raum. Wo sind hier die Möglichkeiten und Grenzen der maschinellen Suche?
Grundsätzlich muss man sehen: Ein Algorithmus kann nicht besser denken als ein Mensch. Der Vorteil von Automatisierung ist, dass die Maschine häufig schneller und quantitativ umfassender arbeiten kann. Wenn zwei Menschen darüber streiten, ob eine Äußerung beleidigend ist oder nicht, kann auch ein Computerprogramm keine endgültige Entscheidung fällen, die beide Seiten zufriedenstellt. Zumal es auch keine allgemeingültige Definition dessen gibt, was eine Beleidigung darstellt, müssen wir hier vorab viel Arbeit investieren, Aussagen händisch mit den Etiketten „beleidigend“ und „nicht-beleidigend“ zu versehen. Die Etikettierung hat letztlich nicht nur mit dem subjektiven Empfinden, sondern auch mit sozialem und kulturellem Hintergrund zu tun. Und spätestens an dieser Stelle wird es kompliziert.

Vor allem Soziale Netzwerke wie Facebook oder Twitter stehen vor einem Riesenproblem, wenn sie Hate Speech erkennen müssen. In vielen Ländern nimmt der Gesetzgeber die Unternehmen aber in die Pflicht, solche Äußerungen zu löschen. Wie kann man sie dabei unterstützen?
Die Betreiber sind aufgrund der Fülle an Postings damit überfordert, menschliche Kontrolleur*innen loszuschicken und die Plattformen manuell nach Beleidigungen zu durchsuchen. Die Idee von Hate Speech Detection ist eine Vorfilterung, die dann der menschlichen Kontrolleurin eine Vorauswahl von potenziell beleidigenden Äußerungen vorlegt, die diese dann final bewerten kann. Ja, bei vielen Äußerungen ist die Beleidigung aufgrund der verwendeten Schimpfwörter evident; oft ist dies aber komplizierter, und dafür brauchen wir einen Menschen.

Wie kompliziert ist es denn, eine Plattform nach bestimmten Wörtern zu durchsuchen?
Leider ist das komplizierter als die meisten Menschen denken. Zuallererst gilt es, beleidigende Begriffe zu sammeln. Selbst das ist nicht einfach, möchte man diese Sammlung doch möglichst erschöpfend – und auch für unterschiedliche Sprachen – gestalten. Hinzu kommt, dass die Sprache ständig im Wandel ist und beispielsweise neue Begriffe wie „Covidiot“ hinzukommen. Vor eineinhalb Jahren gab es diesen Begriff noch nicht. Heute ist damit aber eine ganz bestimmte Bedeutung verknüpft. Auch heute als rassistisch konnotierte Begriffe galten vor 70 Jahren als Bestandteile normaler Alltagskommunikation. Wir haben also eine hohe Dynamik in der natürlichen Sprache.

Man kann aber auch beleidigen, ohne sich diffamierender Ausdruckweisen zu bedienen, oder?
Ja, man kann beleidigen, ohne beleidigende Wörter zu verwenden. Wir sehen hier eine sehr heterogene Gruppe von Äußerungen. Darin liegt auch eine komplexe Aufgabe der Computerlinguistik. Wenn Sie sagen: „Sie sind aber nicht sehr intelligent.“, werden dies die meisten Systeme nicht als Beleidigung erkennen. Wir müssen uns also neben der Worterkennung auch darum bemühen, sprachliche Muster hinter solchen Äußerungen zu erkennen, die uns dabei helfen, diese als beleidigend aufzuspüren. Momentan haben wir aber auch noch nicht die Datensätze, die wir brauchen würden, um einer Maschine diese Kompetenz zu lehren und die Verfahren dann validieren zu können.

Wie kann es gelingen, solche Datensätze aufzubauen?
Wie gesagt, wir brauchen nicht nur Datensätze mit Äußerungen, sondern diese Äußerungen müssen von Menschen mit den Etiketten „beleidigend“ und „nicht-beleidigend“ versehen werden. Das Problem der Etikettierung besteht nicht nur bei der Hate-Speech-Erkennung, sondern auch bei anderen computerlinguistischen Problemfeldern. Wenn man dann die konnotierten Daten hat, nutzt man maschinelle Lernverfahren, mit denen die Maschine relativ autonom aus den Beobachtungen Signale, Wechselwirkungen und sprachliche Strukturen erkennt, die eine Beleidigung ausmachen. Wenn also die Maschine erkennt, dass der Begriff „Dummkopf“ in Äußerungen vorkommt, die als beleidigend eingeschätzt werden, lernt sie daraus, dass es sich um ein beleidigendes Wort handelt. Die Lernverfahren sollen sich aber nicht nur auf Wörter beziehen, sondern auch komplexere Muster berücksichtigen.

Ist man dann treffsicher?
Das kommt derzeit noch sehr stark auf den Datensatz an. Wir haben eindeutig noch zu wenige repräsentative Datensätze, die genügend Daten sowohl für „beleidigend“ als auch für „nicht-beleidigend“ enthalten. Es kommt noch sehr häufig vor, dass Lernverfahren zufällige Indikatoren finden. Wenn beispielsweise in zehn beleidigenden Äußerungen der Begriff „Schrebergarten“ vorkommt und zufällig in keinem der nicht-beleidigenden Äußerungen im Datensatz, dann wird das Verfahren daraus schließen, dass „Schrebergarten“ ein beleidigendes Wort ist. Die Datensätze sind dabei auch so groß, dass es schwer ist, dann die Fehlerquelle zu finden und zufällige Wechselbeziehungen auszumerzen. Wir wollen aber Verfahren entwickeln, die Hate Speech generell – auch unabhängig von einem bestimmten Datensatz – verlässlich erkennen.

Wie darf ich mir die Etikettierung solcher Daten vorstellen? Wer macht so etwas?
Ich habe mit ein paar Kolleg*innen vor ein paar Jahren einen Datensatz für deutschsprachige Beleidigungen aufgebaut, der sich mittlerweile in der Community gut etabliert hat. Um darüber hinaus zu diversifizierten Datensätzen zu kommen, müssen wir viel mehr annotieren. Das machen wir beispielsweise über Crowdsourcing-Anbieter. Dort können Personen, bezahlt, solche Etiketten für sprachliche Ausdrücke zuordnen. Der Vorteil dabei ist, dass wir pro Instanz mehr als eine Wertung, beispielsweise fünf Wertungen, haben und damit nicht mehr so stark darauf vertrauen müssen, was der oder die Einzelne als beleidigend empfindet.

Es scheint also noch viel Grundlagenforschung zu brauchen, um hier voran zu kommen. Wie gehen Ihrer Wahrnehmung nach die großen Unternehmen wie Facebook oder Twitter mit dem Problem Hate Speech um?
Linguistische Forschungsfragen sind für diese Unternehmen eher sekundär, müssen sie sich doch primär um schnelle Problemlösungen für die Hasskommentare auf ihren Plattformen kümmern. Sie möchten so viel wie möglich automatisch erkennen, was möglicherweise auch strafrechtlich relevant ist. Elegante Beleidigungen oder ironische Kommentare, die jeweils viel Weltwissen im Hintergrund brauchen, um erkannt zu werden, können sie leichter aussparen, weil sie häufig weniger gravierend ausfallen als offensichtliche Diffamierungen. Aufgabe der Computerlinguistik in der akademischen Sphäre ist es aber, grundlegende Erkenntnisse zu generieren, um bei der Erkennung von Hate Speech voranzukommen. Wir haben hier unterschiedliche Schwerpunkte, Geschwindigkeiten und Dringlichkeiten.

 

Zur Person

Michael Wiegand ist seit September 2020 Universitätsprofessor am Digital Age Research Center (D!ARC) und zuständig für den Schwerpunkt Digital Humanities. Neben Elisabeth Oswald und Katharina Kinder-Kurlanda ist er einer von drei Professor*innen am D!ARC. Michael Wiegand, Jahrgang 1982, studierte Computerlinguistik an der Universität des Saarlandes und an der Universität Edinburgh. Von 2007 bis 2010 erhielt er ein Promotionsstipendium am internationalen Post-Graduate College an der Universität des Saarlandes. 2011 promovierte er mit der Dissertation zum Thema „Hybrid Approaches for Sentiment Analysis“. Michael Wiegand war von 2010 bis 2018 Forschungsmitarbeiter am Lehrstuhl für Sprach- und Signalverarbeitung an der Universität des Saarlandes. Vor seiner Berufung an die Universität Klagenfurt leitete er 2019 eine Forschungsgruppe am Leibniz-WissenschaftsCampus „Empirical Linguistics and Computational Language Modeling“ in Mannheim. Er forscht auf den Gebieten der Sentiment-Analyse, der Erkennung von Hate Speech, der lexikalen Semantik und Relationsextraktion.

für ad astra: Romy Müller