Skip to main content

Ein weltweites Novum im digitalen Jugendschutz: Seit heute, dem 10. Dezember 2025, müssen die größten Social-Media-Plattformen in Australien die Konten von Millionen von Kindern und Jugendlichen unter 16 Jahren sperren. Diese drastische Maßnahme zur Bekämpfung von Online-Sucht und Cybermobbing sendet ein starkes Signal an die Tech-Giganten und könnte auch in Europa weitreichende Folgen haben, wo das EU-Parlament erst kürzlich eine ähnliche Altersgrenze forderte.

 

Seit Mitternacht australischer Zeit ist es Realität: Plattformen wie TikTok, Instagram, Facebook und YouTube sind gesetzlich verpflichtet, Nutzerinnen und Nutzer unter 16 Jahren von ihren Diensten auszuschließen . Bei Nichteinhaltung drohen den Konzernen Strafen von bis zu 49,5 Millionen Australischen Dollar (rund 30 Millionen Euro). Die australische Regierung begründet diesen Schritt mit der Notwendigkeit, Kinder und Jugendliche vor schädlichen Online-Inhalten, Cybermobbing und den psychischen Folgen exzessiver Social-Media-Nutzung zu schützen. Die eSafety-Kommissarin Julie Inman Grant betonte, dass die Plattformen nun “angemessene Schritte” unternehmen müssen, um die Altersgrenze durchzusetzen .

Der europäische Kontext: Brüssel fordert ebenfalls eine Altersgrenze von 16 Jahren

Die Entwicklungen in Australien fallen in eine Zeit, in der auch in Europa der Ruf nach strengeren Regeln lauter wird. Erst am 26. November 2025 verabschiedete das Europäische Parlament mit einer überwältigenden Mehrheit von 483 zu 92 Stimmen eine Resolution, die eine EU-weite Anhebung des Mindestalters für die Nutzung von sozialen Medien und KI-Diensten auf 16 Jahre fordert . Bisher liegt die Altersgrenze laut Datenschutz-Grundverordnung (DSGVO) bei 16 Jahren, kann aber von den Mitgliedsstaaten auf bis zu 13 Jahre gesenkt werden – eine Option, von der auch Österreich Gebrauch gemacht hat.
Die Resolution des EU-Parlaments ist zwar rechtlich nicht bindend, setzt aber ein starkes politisches Zeichen und erhöht den Druck auf die EU-Kommission, entsprechende Gesetzesvorschläge auszuarbeiten. Die Forderungen der Abgeordneten gehen über eine reine Altersgrenze hinaus und umfassen auch ein Verbot von süchtig machenden Design-Praktiken wie “Infinite Scrolling” und “Autoplay” sowie von personalisierten Empfehlungsalgorithmen für Minderjährige. Laut einer Eurobarometer-Umfrage von 2025 befürworten über 90% der Europäerinnen und Europäer stärkere Schutzmaßnahmen für Minderjährige im Netz .

Internationale Perspektive: Ein globales Experiment beginnt

Australien agiert als globaler Vorreiter und die Welt blickt gespannt auf die Umsetzung und die Folgen des Verbots. Die Tech-Konzerne reagieren mit unterschiedlichen Strategien. Meta (Facebook, Instagram) und TikTok setzen auf eine Kombination aus technologischen Systemen und menschlicher Moderation, um das Alter der Nutzerinnen und Nutzer zu verifizieren . Snapchat, das nach eigenen Angaben rund 440.000 Nutzerinnen und Nutzer zwischen 13 und 15 Jahren in Australien hat, wird die betroffenen Konten in einen “eingefrorenen Zustand” versetzen, bis die Inhaberinnen und Inhaber das 16. Lebensjahr erreichen .
Die Herausforderung der Altersverifikation bleibt jedoch immens. Kritikerinnen und Kritiker bezweifeln, dass die Maßnahmen der Plattformen ausreichen werden, um eine Umgehung durch die Angabe eines falschen Geburtsdatums wirksam zu verhindern. Die australische Regelung nimmt bewusst die Plattformen in die Pflicht und nicht die Kinder oder deren Eltern. Minderjährige, die das Verbot umgehen, müssen keine Strafen fürchten.
Betroffene Plattformen (Auswahl)
Ausgenommene Dienste (Auswahl)
Facebook, Instagram, TikTok, Snapchat
Roblox, YouTube Kids, Google Classroom
X (ehemals Twitter), YouTube, Reddit
Job-Plattformen (z.B. LinkedIn)
Twitch, Kick
Messaging-Dienste (z.B. WhatsApp)

 

Zwischen Schutz, Rechten und praktischer Umsetzung

Die Debatte um Altersgrenzen bewegt sich in einem Spannungsfeld zwischen dem notwendigen Schutz von Kindern und Jugendlichen und deren Recht auf Teilhabe und Informationsfreiheit. Während Befürworterinnen und Befürworter die positiven Auswirkungen auf die psychische Gesundheit und die Reduzierung von Online-Risiken betonen, warnen Kritikerinnen und Kritiker vor einer Einschränkung der digitalen Mündigkeit und der Gefahr einer Verlagerung in unregulierte Bereiche des Internets.
Ein zentraler Kritikpunkt bleibt die technische Umsetzbarkeit einer verlässlichen und gleichzeitig datenschutzkonformen Altersverifikation. Die Resolution des EU-Parlaments verweist hier auf die zukünftige europäische digitale Identität (eID), die eine Lösung bieten könnte. Gleichzeitig wird betont, dass solche Systeme die Plattformen nicht aus ihrer Verantwortung entlassen dürfen, ihre Dienste von Grund auf sicherer und altersgerechter zu gestalten.

Was bedeutet das für Eltern und Lehrkräfte?

Auch wenn ein sofortiges Social-Media-Verbot nach australischem Vorbild in Österreich derzeit noch nicht zur Debatte steht, zeigt die Entwicklung eine klare Richtung auf: Der regulatorische Druck auf die Plattformen wird europaweit zunehmen. Für Eltern und Lehrkräfte in Österreich unterstreicht dies die dringende Notwendigkeit, die Medienkompetenz von Kindern und Jugendlichen weiter zu stärken. Es gilt, junge Menschen zu befähigen, die Mechanismen von Social-Media-Plattformen kritisch zu hinterfragen, Risiken zu erkennen und ein gesundes Nutzungsverhalten zu entwickeln. Die aktuellen politischen Vorstöße auf EU-Ebene könnten diesen Bemühungen den nötigen Rückenwind verleihen und die Debatte über digitalen Jugendschutz in Österreich neu entfachen.

Quellen