Depression, Selbstverletzung, Suizidgedanken — Themen, die eigentlich sensibel und ernsthaft behandelt werden sollten, sind längst zu einem festen Bestandteil des Algorithmus-Feeds geworden, den Millionen von Menschen täglich konsumieren. Was viele als einfache Unterhaltung wahrnehmen, kann sich zu einem gefährlichen Gefüge entwickeln, das psychisch belastete Jugendliche noch tiefer in problematische Gedankengänge hineinzieht. Eine Dokumentation des Bayerischen Rundfunks untersuchte genau diesen Mechanismus — und überraschende wie gleichzeitig beunruhigende Recherchen aus der Praxis und der Wissenschaft bestätigen, wie stark die algorithmische Empfehlung hier wirken kann.
Ein Experiment mit hohem Risiko
In der Doku wurde ein einfaches, aber aufschlussreiches Experiment durchgeführt: Ein neu erstellter TikTok-Account, ohne Interessen ausgewählt, scrollt ausschließlich traurige, depressive oder selbstverletzende Videos. Innerhalb kürzester Zeit dominieren solche Inhalte den Feed — selbst wenn ursprünglich keine solchen Präferenzen eingestellt waren. Die Plattform interpretiert lediglich, welche Art von Inhalten besonders lange angesehen oder wiederholt angeschaut wird, und liefert darauf basierend immer mehr davon nach.
Während klassische Medien früher eine redaktionelle Kuratierung hatten, trifft bei TikTok kein Mensch diese Entscheidungen — sondern eine Black-Box-Empfehlungsmaschine (den Algorithmus). Sie ist darauf programmiert, Engagement zu maximieren. Das bedeutet: Je mehr ein Video emotional reagiert wird — egal ob positiv oder negativ — desto mehr wird ähnlicher Inhalt nachgereicht.
Der „Rabbit-Hole-Effekt“: Wenn der Algorithmus zum Sog wird
Unabhängige Untersuchungen zeigen, dass diese algorithmische Vorschlagslogik zu einem sogenannten „Rabbit Hole“ werden kann — einem Kaninchenbau, in dem Nutzer immer tiefer in ein Themenfeld gezogen werden. Schon nach kurzer Zeit sehen Testaccounts immer mehr Videos zu depressiven Themen, Selbstverletzung oder Suizid. In manchen Fällen bestehen bis zu 50 % des Feeds aus mental-health-bezogenem Content nach nur wenigen Stunden Nutzung — bis zu zehnmal mehr als bei Accounts ohne Interesse an solchen Themen.
Die Geschwindigkeit ist entscheidend. Teilweise tauchen depressive Inhalte bereits innerhalb von fünf Minuten nach dem ersten „Klick“ auf ein solches Video regelmäßig im Feed auf — und diese Inhalte verstärken sich gegenseitig.
Was bedeutet das für Menschen, die bereits psychisch belastet sind? Psychiater und Psychologen warnen, dass wiederholter Kontakt mit solchen Inhalten nicht nur ein Spiegel psychischer Belastung sein kann, sondern diese Belastung auch verstärkt — was wiederum die Wahrscheinlichkeit von selbstverletzendem Verhalten und suizidalen Gedanken steigern kann.
Wie Algorithmen funktionieren — und warum sie „emotionale“ Inhalte bevorzugen
Der TikTok-Algorithmus ist ein maschinelles Lernsystem: Er analysiert, wie du scrollst, welche Videos du länger anhältst oder wiederholst, und was du übersprungen hast. Im Gegensatz zu Menschen unterscheidet er nicht zwischen „hilfreichen“ Informationen und potenziell schädlichem Content — er optimiert ausschließlich nach Aufmerksamkeit.
Das hat zwei fundamentale Folgen:
- Emotionale Inhalte generieren mehr Aufmerksamkeit: Traurige, dramatische oder extreme Gefühle führen zu stärkerer Reaktion — und werden häufiger angesehen, geteilt oder kommentiert.
- Die algorithmische Verstärkung: Einmal initiierte Muster werden verstärkt — das System liefert immer mehr davon, weil sie „gut funktionieren“.
Das Ergebnis ist, dass besonders intensiver emotionaler Content, einschließlich Depressions- oder Selbstverletzungs-Videos, überproportional oft empfohlen wird. Das geschieht nicht unbedingt, weil TikTok „schädliche Absichten“ hätte, sondern weil sein System so konstruiert ist, dass es Interaktion maximiert — selbst wenn diese von negativen Emotionen kommt.
Erfahrungen Betroffener: „Das kann bis zum Tod führen“
In der Doku berichtet eine junge Frau, wie sie jahrelang immer wieder depressive Inhalte im Feed hatte, obwohl sie aktiv versucht hatte, anderen Content zu konsumieren. Ihre Einschätzung ist eindringlich:
„Wenn ich mich drei Jahre zurückbeamen würde, hätte ich mich davon überhaupt nicht abgrenzen können. Und das kann einen wirklich bis zum Tod führen.“
Diese persönliche Erfahrung deckt sich mit wissenschaftlichen Erkenntnissen, die zeigen, dass Inhalte über Selbstverletzung und suizidales Verhalten nicht nur passiv konsumiert werden — sie können durch „soziale Kontagion“ auch bei anderen problematische Verhaltensmuster auslösen oder verstärken.
Medienkompetenz versus algorithmische Verstärkung
Während TikTok oft betont, dass ein Großteil der Inhalte positiv oder nützlich für die psychische Gesundheit sein kann, zeigen zwei Dinge ein ambivalentes Bild:
- Untersuchungen zeigen, dass mehr als die Hälfte der populärsten „Mental Health“-Videos auf TikTok Fehlinformationen oder ungenaue Ratschläge enthalten, die stark vereinfachend, nicht evidenzbasiert oder irreführend sind.
- Gleichzeitig birgt die Nutzung von Social Media auch Chancen: Viele Jugendliche nutzen TikTok, um über psychische Gesundheit zu lernen, sich mit anderen auszutauschen oder Erfahrungen zu teilen — jedoch ohne professionelle Moderation oder wissenschaftliche Qualitätssicherung.
Das bedeutet: Es ist nicht nur wichtig, wie lange jemand Social Media nutzt – sondern welche Inhalte und wie qualifiziert diese Inhalte sind.
Wissenschaftliche Perspektive: Risiken und Ungewissheiten
Die Forschung hat unterschiedliche Ergebnisse darüber, wie stark Social Media im Allgemeinen und TikTok im Besonderen die psychische Gesundheit beeinflussen:
- Einige Studien deuten auf einen Zusammenhang zwischen intensiver TikTok-Nutzung und erhöhter Wahrscheinlichkeit von Angststörungen, Depression und schlechtem Schlaf hin, insbesondere bei problematischer Nutzung.
- Gleichzeitig zeigen große Untersuchungsergebnisse, dass nur die reine Zeit auf Social Media nicht automatisch zu psychischen Problemen führt; entscheidend ist vielmehr, wie und mit welchen Inhalten interagiert wird.
Fazit vieler Experten: Die Beziehung zwischen Social Media-Nutzung und mentaler Gesundheit ist komplex — sie hängt von individuellen Faktoren, Nutzungsarten, Lebenskontext und psychischer Vulnerabilität ab.
Gesellschaftliche Reaktionen: Rechtliche Schritte und politische Debatten
Weltweit wird TikTok zunehmend politisch und rechtlich hinterfragt:
- In den USA hat der Bundesstaat Minnesota Klage gegen TikTok eingereicht und wirft dem Unternehmen vor, süchtig machende Algorithmen zu entwickeln, die gezielt junge Menschen ansprechen und dadurch psychische Probleme fördern.
- In Europa haben Amnesty International und andere Organisationen wiederholt dokumentiert, dass der TikTok-Algorithmus junge Nutzer in „Rabbit Holes“ schickt, in denen depressive oder selbstverletzende Inhalte überproportional ausgespielt werden.
- In Frankreich warnt die nationale Gesundheitsbehörde vor einem „spiraleffekt“, den soziale Medien auf Jugendliche ausüben, und fordert größere regulatorische Maßnahmen.
Diese politischen und gesellschaftlichen Debatten spiegeln eine wachsende Sorge wider: Es geht nicht nur um individuelle Nutzung — sondern um strukturelle Eigenschaften digitaler Plattformen und deren Verantwortung gegenüber jungen Menschen.
Chancen und Risiken: Eine differenzierte Sicht
Social Media ist kein monolithischer Schaden. Es gibt Aspekte, die positiv sein können:
✔ Community und Austausch: Für viele Jugendliche ist TikTok ein Ort, an dem sie Erfahrungen teilen, sich verstanden fühlen und Unterstützung finden.
✔ Aufklärung und Stigma-Reduktion: Gut gemachte Inhalte zu psychischer Gesundheit können informieren und entstigmatisieren.
✘ Fehlinformation und Vereinfachung: Kürze und Dramatisierung in Videos können komplexe Themen verzerren oder falsch darstellen.
✘ Algorithmischer Sog: Unkontrollierte Empfehlungsmechanismen können problematische Inhalte verstärken und vulnerable Personen tiefer hineinziehen.
Fazit: Aufmerksamkeit darf kein Risiko sein
Die Verbindung aus algorithmischer Empfehlung, emotional starkem Content und jungen, psychisch anfälligen Nutzer:innen kann gefährlich werden — vor allem dann, wenn Inhalte über Selbstverletzung, Depression oder Suizid nicht nur dargestellt — sondern verstärkt verbreitet werden.
Die Lösung liegt nicht in der Abschaffung von TikTok oder Social Media. Sie liegt in besserer Regulierung, Medienkompetenz, evidenzbasierten Inhalten, klareren Grenzen und einem gesellschaftlichen Diskurs darüber, wie Technologie unser psychisches Wohl beeinflusst.
Denn am Ende des Tages sind es nicht nur Bits und Bytes — sondern echte Menschen, Gefühle und Leben.


