Skip to main content
Die EU-Kommission hat TikTok vorläufig des Verstoßes gegen den Digital Services Act überführt – wegen Designmerkmalen, die Nutzer:innen in eine Art “Autopilot-Modus” versetzen sollen. Gleichzeitig tagt erstmals ein EU-Expertenpanel zu Kindersicherheit im Netz. Was das für österreichische Schulen und Familien bedeutet.
Infinite Scroll, Autoplay, personalisierte Push-Benachrichtigungen: Was wie eine nüchterne Liste technischer Funktionen klingt, ist laut der Europäischen Kommission ein systematisches Werkzeug zur Verhaltenssteuerung. Am 6. Februar 2026 veröffentlichte die Kommission ihre vorläufigen Ermittlungsergebnisse gegen TikTok – und stellte fest, dass die Plattform gegen Artikel 34 und 35 des Digital Services Act (DSA) verstoßen hat. Der Vorwurf: TikTok habe nicht ausreichend bewertet, wie seine Designmerkmale die körperliche und psychische Gesundheit von Nutzer:innen – insbesondere Minderjährigen – gefährden könnten.

Was die EU-Kommission konkret beanstandet

Der DSA verpflichtet sogenannte “Very Large Online Platforms” (VLOPs) – also Plattformen mit mehr als 45 Millionen Nutzer:innen in der EU – dazu, systemische Risiken ihrer Dienste zu identifizieren, zu analysieren und wirksam zu mindern. TikTok zählt zu diesen Plattformen und ist damit zu umfassender Transparenz und Risikominimierung verpflichtet.
Die Kommission stellte in ihrer Vorabeinschätzung fest, dass TikToks Designarchitektur Nutzer:innen gezielt in einen Zustand passiver Dauernutzung versetzt: Der endlose Videostrom belohnt das Scrollen mit immer neuen Inhalten, Autoplay verhindert bewusste Pausen, und das hochpersonalisierte Empfehlungssystem hält Nutzer:innen in einer Filterblase aus algorithmisch optimierten Inhalten. Besonders kritisch: TikTok habe wichtige Indikatoren für zwanghaftes Nutzungsverhalten ignoriert – darunter die Nutzungszeiten von Minderjährigen in der Nacht sowie die Häufigkeit, mit der Nutzer:innen die App öffnen.
Zwar bietet TikTok Bildschirmzeitlimits und Elternkontrollen an – doch laut Kommission sind diese Werkzeuge nicht wirksam genug. Zeitlimits seien “leicht zu übergehen”, Elternkontrollen erforderten erheblichen Aufwand und technisches Know-how. Die Konsequenz: TikTok müsste, wenn die vorläufigen Befunde bestätigt werden, das grundlegende Design seines Dienstes ändern.

Suchtdesign als Rechtsbegriff – eine neue Dimension der Plattformregulierung

Das Besondere an diesem Verfahren ist, dass der DSA den Begriff “Suchtdesign” nicht explizit definiert. Die Kommission stützt sich auf die allgemeinen Risikobewertungspflichten der Artikel 34 und 35 – und schafft damit einen Präzedenzfall: Erstmals wird nicht ein einzelner Inhalt, sondern die grundlegende Architektur einer Plattform als potenziell rechtswidrig eingestuft. Parallel hat die Kommission auch formelle Verfahren gegen den Fast-Fashion-Riesen Shein eröffnet, ebenfalls wegen Designelementen, die auf Suchtverhalten abzielen sollen.
Für Lehrkräfte und Eltern ist dieser Perspektivwechsel bedeutsam: Nicht nur was Kinder auf Plattformen sehen, sondern wie Plattformen gebaut sind, rückt in den regulatorischen Fokus. Das ist ein Paradigmenwechsel in der europäischen Digitalregulierung.