Werden Jugendliche durch TikTok radikalisiert?

Soziale Medien können durch ihre Algorithmen und ein Gefühl von virtueller Gemeinschaft zur Radikalisierung junger Menschen beitragen. Aber das alleine reicht nicht. Medien- und Kommunikationswissenschaftler Matthias Karmasin (ÖAW und Universität Klagenfurt) erklärt im Gespräch, welche Gefahr von TikTok und Co. tatsächlich ausgeht. 

Der Attentäter von Villach soll innerhalb von nur drei Monaten auf TikTok radikalisiert worden sein. Wie ist das möglich? Matthias Karmasin, Medien- und Kommunikationswissenschaftler an der Österreichischen Akademie der Wissenschaften (ÖAW) und der Universität Klagenfurt betont, dass man nicht automatisch radikalisiert wird, nur, weil man dubiose Inhalte eingespielt bekommt. Aber die Algorithmen sozialer Medien können Tendenzen verstärken und dazu führen, dass Nutzer:innen „in einem Rabbit Hole landen, aus dem man nur mehr schwer herauskommt“, so Karmasin im Interview.

Warum sind Soziale Medien so gut darin, Jugendliche zu radikalisieren? 

Matthias Karmasin: Man muss bei diesem Thema aufpassen, dass man keine monokausalen Zuschreibungen trifft. In der Medienwirkungsforschung zeigt sich nämlich, dass eine bewusste Entscheidung am Beginn eines solchen Prozesses steht, sich für solche Inhalte zu interessieren. Und in weiterer Folge, sie nicht als gefährlich oder problematisch wahrzunehmen und zu melden. Wenn diese Entscheidung getroffen ist, TikTok-Videos bis zu Ende anzusehen, hat der Algorithmus eine Tendenz, immer mehr in diese Richtung vorzuschlagen. Man landet also sehr schnell in einem Rabbit Hole.

Andererseits weiß jede:r, der oder die TikTok nutzt, dass man auch schnell wieder den Algorithmus ändern kann, wenn andere Inhalte sich mehr in den Vordergrund drängen. 

Karmasin: Deshalb ist diese simple Medienwirkungsvorstellung von Stimulus und Response ja auch falsch. Man sieht nicht eine mediale Präsentation und dann folgt sofort eine Reaktion im Sinne einer Wahlentscheidung, einer Konsumentscheidung oder einer Radikalisierung. Man hört nicht einem Salafisten bei einer Hasspredigt zu und wird automatisch radikal. Individuelle Präferenzen spielen eine wichtige Rolle, die einen dazu bringen, länger an Themen zu bleiben. Aber natürlich sind Algorithmen so gebaut, dass sie die Verweildauer auf der Plattform maximieren. Das ist ihr Geschäftsmodell: Je länger Menschen auf einer Plattform sind, desto mehr personalisierte Werbung kann verkauft werden.

Soziale Medien funktionieren viel über Community-Denken. Suchen viele Nutzer:innen eine Gemeinschaft? 

Karmasin: In der Forschung nennt man dieses Phänomen parasoziale Interaktion, das kann zu einem Star oder einer Influencer:in sein, die man gar nicht kennt, aber als persönliche Freund:in wahrnimmt. Man kennt das auch aus der Forschung über Influencer:innen, die im Koch- oder Lifestyle-Bereich aktiv sind, und es schaffen, eine sehr enge Beziehung zu ihren Follower:innen aufzubauen. Soziale Medien haben allerdings auch die Tendenz, randständige Positionen für Mehrheitspositionen zu halten. Der Algorithmen zeigt einen kleinen Ausschnitt, den viele für das ganze Bild halten.

Viele Hassprediger laden dann in geschlossene Telegram-Chat-Gruppen ein, in denen die Weltsicht noch enger wird. Als Nutzer:in hat man das Gefühl, nicht allein zu sein, Freunde und Gleichgesinnte zu finden und nicht mehr so isoliert zu sein. Man fühlt sich angenommen, aufgehoben, bestärkt. Deshalb ist es wichtig, über Medienkompetenz zu reden. Dass man lernt, sich nicht auf das Wissen einer Gruppe zu verlassen, sondern Quellen gegen zu checken, mehrere Zugänge zu finden, sich offen auszutauschen. Wenn es nur mehr eine Quelle gibt, dann ist man im Rabbit Hole gefangen, aus dem man nur mehr schwer herauskommt.

Reicht Medienkompetenz allein, um Jugendliche zu schützen? 

Karmasin: Ich halte Medienkompetenz für ganz wichtig, aber wir müssen auch die Plattformen dazu verpflichten, dass Grenzen gezogen werden. Da geht es um die Frage, in welcher Welt wir leben wollen. In einer, in der jede:r alles darf? Oder in einer Welt, in der Freiheit mit Verantwortung zusammen gedacht wird? In Europa haben wir nach wie vor eine gesetzliche Grundlage, die sicherstellt, dass Inhalte, die problematisch sind, gelöscht werden müssen. Diese gilt es zu schützen und sinnvoll auszubauen.

Matthias Karmasin ist Direktor des Instituts für vergleichende Medien- und Kommunikationsforschung der Österreichischen Akademie der Wissenschaften (ÖAW) und Professor am Institut für Medien- und Kommunikationswissenschaft der Universität Klagenfurt. Er ist zudem Mitglied der ÖAW.  

Das Interview wurde durch die Redaktion der ÖAW erstellt und unter Werden Jugendliche durch TikTok radikalisiert? veröffentlicht.