Online-Beleidigungen automatisch finden
Hate Speech im digitalen Raum hat das Potenzial, Stimmen zum Verstummen zu bringen und so demokratiegefährdend zu wirken. Hass kommt online aber nicht immer mit Schimpfwörtern zum Ausdruck, sondern auch implizite Beleidigungen sind allgegenwärtig. Diese mit technischen Hilfsmitteln effizient aufzuspüren, ist aber besonders herausfordernd. Michael Wiegand arbeitet aktuell in einem vom FWF geförderten Projekt an der „Erkennung Impliziter Beleidigungen“.
„Bei vielen Äußerungen ist die Beleidigung aufgrund der verwendeten Schimpfwörter evident; oft ist dies aber komplizierter, und dafür brauchen wir häufig noch einen Menschen“, erklärt Michael Wiegand, der am Digital Age Research Center (D!ARC) im Bereich Computerlinguistik forscht und lehrt.
Weniger problematisch seien implizite Beleidigungen, die auch für das menschliche Auge oft erst auf dem zweiten Blick zu erkennen sind, aber nicht. Umso problematischer ist, dass diese von den meisten Programmen zur Hate Speech Detection nicht erkannt werden. „Wenn Sie sagen: ‚Sie sind aber nicht sehr intelligent.‘, werden dies die meisten Systeme nicht als Beleidigung erkennen. Wir müssen uns also neben der Worterkennung auch darum bemühen, sprachliche Muster hinter solchen Äußerungen zu erkennen, die uns dabei helfen, diese als beleidigend aufzuspüren“, erläutert Michael Wiegand. Entscheidend dabei sind Datensätze, aus denen ein Algorithmus bestimmte sprachliche Phänomene erlernen kann. Dafür müssen Äußerungen von Menschen mit den Etiketten „beleidigend“ und „nicht-beleidigend“ versehen werden. Michael Wiegand erklärt: „Wenn man dann die annotierten Daten hat, nutzt man maschinelle Lernverfahren, mit denen die Maschine relativ autonom aus den Beobachtungen Signale, Wechselwirkungen und sprachliche Strukturen erkennt, die eine Beleidigung ausmachen. Die Lernverfahren sollen sich aber nicht nur auf Wörter beziehen, sondern auch komplexere Muster berücksichtigen.“
Michael Wiegand ist bereits seit Jahren im Feld der Erkennung von Hate Speech tätig. Im aktuellen Projekt liegt der Fokus auf impliziten Beleidigungen. Für eine Reihe konkreter sprachlicher Ausprägungen, wie z. B. Euphemismen (z. B. „Ich bin froh, dass wir uns zumindest am Wochenende nicht sehen.“), sollen dezidierte Datensätze erstellt werden. Dies ist insofern herausfordernd, als dass in bestehenden Textsammlungen solche Äußerungen stark unterrepräsentiert sind. Bei den Klassifikationsverfahren, die anschließend auf diesen neuen Daten erprobt werden sollen, werden große Sprachmodelle, die in den vergangenen Jahren in der Computerlinguistik einen Siegeszug angetreten haben, eine zentrale Rolle einnehmen. Sie repräsentieren zurzeit die einzigen maschinellen Lernverfahren, die ansatzweise ein echtes Textverständnis vorweisen und somit in begrenzten Umfang zwischen den Zeilen lesen können.