Skip to main content
Hunderte Klagen wegen sexueller Ausbeutung von Minderjährigen, explodierende Meldezahlen und neue EU-Regelungen: Die Gaming-Plattform Roblox steht unter Druck. Was bedeutet das für österreichische Schulen und Familien?
Die Zahlen sind alarmierend: Im Jahr 2019 meldete Roblox 675 Fälle vermuteter sexueller Ausbeutung von Kindern an das US-amerikanische National Center for Missing and Exploited Children (NCMEC). Bis 2024 war diese Zahl auf über 24.000 gestiegen – eine Verfünfunddreißigfachung in nur fünf Jahren. Allein in den ersten sechs Monaten des Jahres 2025 erreichte die Plattform bereits fast die Gesamtzahl des Vorjahres. Parallel dazu bereitet sich in den USA eine Gruppe von Anwaltskanzleien darauf vor, bis Ende 2025 über tausend Klagen gegen Roblox einzureichen – alle im Namen von Kindern und Jugendlichen, die Opfer von Cybergrooming und sexueller Ausbeutung geworden sein sollen.
Diese Entwicklungen betreffen auch Österreich unmittelbar. Laut aktuellen Erhebungen nutzen rund 24 Prozent der österreichischen Kinder und Jugendlichen zwischen elf und 17 Jahren die Plattform. Bei den unter 13-Jährigen ist Roblox besonders beliebt – ausgerechnet in jener Altersgruppe, die am schutzbedürftigsten ist. Während Eltern die kindliche Grafik und spielerische Aufmachung oft als harmlos einschätzen, warnen Expert:innen zunehmend vor den Risiken, die hinter den bunten Avataren lauern. Eine aktuelle Untersuchung, über die der Standard im April 2025 berichtete, zeigte, wie einfach Kinder beim Spielen auf Roblox mit sexualisierten Inhalten in Berührung kommen können.

Der Digital Services Act: Europas Antwort auf unsichere Plattformen

Seit Februar 2024 gilt in der gesamten Europäischen Union der Digital Services Act (DSA), eine umfassende Regulierung digitaler Dienste, die auch Gaming-Plattformen wie Roblox in die Pflicht nimmt. In Österreich wurde der DSA durch das DSA-Begleitgesetz umgesetzt, das am 30. Dezember 2023 in Kraft trat. Die Regulierungsbehörde für Telekommunikation und Rundfunk (RTR-Austria) fungiert als nationale Koordinierungsstelle für digitale Dienste und überwacht die Einhaltung der neuen Vorschriften.
Der DSA verpflichtet Plattformen wie Roblox zu weitreichenden Schutzmaßnahmen, insbesondere wenn es um Minderjährige geht. Dazu gehören strengere Moderationsstandards, Transparenzpflichten und die Möglichkeit für Nutzer:innen, illegale Inhalte direkt zu melden. Für EU-Bürger:innen hat Roblox einen eigenen Meldeweg für illegale Inhalte eingerichtet und einen rechtlichen Vertreter in der EU benannt.
Die erst vor wenigen Tagen veröffentlichten EU-Leitlinien zu Artikel 28(1) des DSA konkretisieren die Anforderungen weiter: Online-Plattformen müssen über technische Schutzmaßnahmen hinausgehen und Kinderschutz in ihre Governance-Strukturen einbetten. Die Europäische Kommission betont, dass Plattformen proaktiv handeln müssen, um Kinder vor Ausbeutung, Manipulation und schädlichen Inhalten zu schützen. Erst kürzlich befraget die EU-Kommission vier US-Plattformen – darunter auch Gaming-Dienste – zu ihren Kinderschutzmaßnahmen.

Warum Schutzmaßnahmen allein nicht ausreichen

Trotz dieser neuen rechtlichen Rahmenbedingungen bleiben erhebliche Zweifel, ob die Maßnahmen ausreichen. Roblox hat in den vergangenen Monaten verschiedene Sicherheitsfunktionen eingeführt, darunter ein KI-gestütztes Altersverifikationssystem und sogenannte “Trusted Connections”, die es Nutzer:innen über 13 Jahren ermöglichen, ungefiltert mit anderen zu kommunizieren. Doch Expert:innen warnen, dass diese Systeme leicht zu umgehen sind.
Ein aktuelles Beispiel zeigt die Schwachstellen: Auf der Gaming-Plattform Discord, die ähnliche KI-basierte Altersverifikationen eingeführt hat, gelang es Nutzer:innen innerhalb weniger Tage, das System mit einem Screenshot aus dem Videospiel “Death Stranding” zu täuschen. Das Foto des Hauptcharakters, dessen Modell auf dem Schauspieler Norman Reedus basiert, wurde als echte Person akzeptiert. Solche Beispiele verdeutlichen, dass technische Lösungen allein keine Sicherheit garantieren können.
Die Extremismus-Forscherin Ry Terran kritisiert die neuen Funktionen von Roblox scharf: Die “Trusted Connections” würden jungen Teenager:innen mehr Möglichkeiten zum Chatten geben, nicht weniger. Die Elternkontrollen lägen in der Hand der Jugendlichen selbst, nicht der Eltern. “Sie nennen das ‘zusätzliche Sicherheitsfunktionen’, um die Last der Sicherheit auf Kinder und Eltern zu verlagern und weg von sich selbst”, so Terran.
Hinzu kommt, dass viele der dokumentierten Fälle von Cybergrooming auf Roblox nicht auf der Plattform selbst enden. Täter nutzen Roblox häufig als ersten Kontaktpunkt und verlagern Gespräche dann auf Plattformen wie Discord oder Snapchat, wo noch weniger Kontrolle herrscht. Die Forschungspsychologin Rachel Kowert erklärt das Problem: “Vielleicht liegt es an der Grafik oder am Marketing, aber es gibt die Annahme, dass Roblox für Kinder gemacht ist – und Eltern gehen davon aus, dass es umfassende Schutzmaßnahmen gibt.”

Internationale Entwicklungen: Deutschland verschärft, Österreich zögert

Die Probleme mit Roblox sind kein isoliertes Phänomen. Laut Medienberichten haben Strafverfolgungsbehörden in den USA seit 2018 mindestens zwei Dutzend Menschen verhaftet, die beschuldigt werden, Opfer über Roblox entführt oder missbraucht zu haben. In Deutschland hat die Unterhaltungssoftware Selbstkontrolle (USK) im Januar 2025 die Altersfreigabe für Roblox von “ohne Altersbeschränkung” auf “ab 16 Jahren” angehoben – ein deutliches Signal.
In Österreich gibt es keine vergleichbare gesetzlich verbindliche Altersfreigabe für die Plattform. Die Verantwortung liegt damit noch stärker bei Eltern und Bildungseinrichtungen. Die Krone berichtete im April 2025, dass Expert:innen von der Roblox-Nutzung für jüngere Kinder abraten – doch eine klare regulatorische Antwort fehlt bislang.

Was der DSA ändern könnte – und was nicht

Der Digital Services Act ist ein wichtiger Schritt, um Plattformen wie Roblox in die Verantwortung zu nehmen. Die Möglichkeit, illegale Inhalte direkt zu melden, die Transparenzpflichten und die strengeren Moderationsstandards sind Fortschritte. Doch die aktuellen Entwicklungen zeigen auch die Grenzen der Regulierung: Solange Plattformen auf technische Lösungen setzen, die leicht zu umgehen sind, und solange die Verantwortung auf Kinder und Eltern abgewälzt wird, bleibt das Grundproblem bestehen.
Die Frage ist nicht, ob Roblox reguliert werden soll – das geschieht bereits. Die Frage ist, ob die Regulierung ausreicht und ob sie konsequent durchgesetzt wird. Die RTR-Austria als nationale Koordinierungsstelle hat hier eine wichtige Rolle. Doch auch die Plattformen selbst müssen mehr tun als das gesetzliche Minimum.
Für österreichische Schulen und Familien bedeutet das: Der DSA bietet einen rechtlichen Rahmen, doch er ersetzt nicht die Notwendigkeit, Kinder aufzuklären, technische Schutzmaßnahmen zu nutzen und wachsam zu bleiben. Digitale Spiele wie Roblox können kreativ und bereichernd sein – doch nur, wenn Erwachsene dafür sorgen, dass Kinder diese Räume sicher erkunden können.
Quellen: WIRED (August 2025), EU-Kommission (Leitlinien Oktober 2025), Der Standard (April 2025), Die Krone (April 2025), RTR.at, DSA-Begleitgesetz BGBl I 182/2023.
Weiterführende Links:  |