Kopenhagen/Brüssel/Wien – Dänemark plant ein weitreichendes Social Media Verbot für Kinder unter 15 Jahren und setzt damit neue, strenge Maßstäbe im europäischen Kinderschutz. Während die EU-Kommission erst kürzlich neue Schutzrichtlinien veröffentlicht hat, entfacht der dänische Vorstoß die Debatte neu, wie Kinder und Jugendliche in Österreich und Europa effektiv vor den Risiken digitaler Plattformen geschützt werden können.
Die dänische Regierung hat am 7. November 2025 eine parteiübergreifende Einigung für ein Gesetz erzielt, das den Zugang zu sozialen Netzwerken wie TikTok, Instagram und Snapchat für unter 15-Jährige grundsätzlich untersagen soll . Die Ankündigung ist eine direkte Reaktion auf alarmierende Zahlen: Laut der dänischen Digitalisierungsministerin Caroline Stage haben 94 Prozent der dänischen Kinder unter 13 Jahren bereits ein Profil auf mindestens einer Social-Media-Plattform, bei den unter 10-Jährigen ist es mehr als die Hälfte . “Die Zeit, die sie online verbringen, und das Ausmaß an Gewalt und Selbstverletzung, dem sie ausgesetzt sind, stellen ein zu großes Risiko für unsere Kinder dar”, so Stage gegenüber der Associated Press ().
Der EU-Rahmen: Digital Services Act und neue Leitlinien
Der dänische Plan bewegt sich innerhalb des rechtlichen Rahmens, den die Europäische Union mit dem Digital Services Act (DSA) geschaffen hat. Der DSA, der seit 2023/2024 schrittweise gilt, enthält strenge Vorgaben zum Schutz Minderjähriger (z. B. Werbeverbote, sichere Voreinstellungen, Risikoprüfungen). Dänemark geht mit einer Altersgrenze von 15 Jahren nun einen Schritt weiter.
Unterstützung für strengere Regeln kommt auch von der EU-Kommission selbst. Am 10. Oktober 2025 veröffentlichte sie neue, wenn auch freiwillige, Leitlinien zum Online-Schutz von Minderjährigen (). Diese empfehlen den Plattformen eine Reihe von Maßnahmen, die über die bisherigen Anforderungen hinausgehen.
Dazu gehören unter anderem:
|
Empfehlung der EU-Kommission
|
Beschreibung
|
|
Sichere Standardeinstellungen
|
Konten von Minderjährigen sollen standardmäßig auf “privat” gesetzt werden. Funktionen, die eine exzessive Nutzung fördern, wie Autoplay, Lesebestätigungen oder “Streaks”, sollen deaktiviert sein.
|
|
Effektive Altersverifikation
|
Plattformen sollen robuste Systeme zur Altersüberprüfung implementieren, um die Einhaltung der Altersgrenzen sicherzustellen.
|
|
Schutz vor wirtschaftlicher Ausbeutung
|
Kinder sollen vor manipulativen kommerziellen Praktiken wie “Lootboxen” oder irreführender Werbung geschützt werden.
|
|
Kinderfreundliche Meldesysteme
|
Mechanismen zum Melden von schädlichen Inhalten müssen für Kinder leicht verständlich und zugänglich sein.
|
Diese Leitlinien sind das Ergebnis eines umfassenden Konsultationsprozesses und sollen als Referenzpunkt für die nationalen Aufsichtsbehörden dienen. Erst am 7. November bekräftigte die EU-Kommission in einer gemeinsamen Erklärung mit den Aufsichtsbehörden aus Australien und Großbritannien, die Zusammenarbeit im Bereich des Online-Kinderschutzes, insbesondere bei der Altersverifikation, zu verstärken ().



