Eine neue Ära der digitalen Desinformation hat begonnen. Die explosive Verbreitung von generativer Künstlicher Intelligenz (KI) in Kombination mit der Dominanz von Plattformen wie TikTok schafft ein Ökosystem, in dem gefälschte und irreführende Inhalte in beispiellosem Ausmaß gedeihen. Eine aktuelle Studie zeigt, dass bereits mehr als ein Drittel der Teenager durch KI-generierte Fälschungen getäuscht wurde. Dies untergräbt nicht nur das Vertrauen in digitale Medien, sondern auch in grundlegende gesellschaftliche Institutionen.
Das Ausmaß der Täuschung
Die Zahlen sind alarmierend. Eine im Januar 2025 von der Non-Profit-Organisation Common Sense Media veröffentlichte Studie befragte 1.000 amerikanische Teenager zu ihren Erfahrungen mit KI-generierten Inhalten. Die Ergebnisse zeichnen ein düsteres Bild [1]:
- 35% der Jugendlichen gaben an, bereits durch gefälschte Online-Inhalte getäuscht worden zu sein.
- 41% stießen auf Inhalte, die zwar echt waren, aber in einem irreführenden Kontext präsentiert wurden.
- 22% haben bereits selbst Informationen geteilt, die sich später als falsch herausstellten.
Diese Daten sind besonders brisant, da die Nutzung von generativer KI unter Jugendlichen rasant zunimmt. Bereits im September 2024 hatten laut einer früheren Studie derselben Organisation sieben von zehn Teenagern KI-Tools wie ChatGPT ausprobiert [1]. Die einfache Verfügbarkeit und die hohe Qualität von KI-generierten Fälschungen (Deepfakes, gefälschte Bilder und Texte) senken die Hemmschwelle für die Produktion und Verbreitung von Desinformation dramatisch.
Der “perfekte Sturm”: TikTok als Brandbeschleuniger
TikTok spielt in diesem Szenario eine zentrale Rolle. Die Plattform ist für viele Jugendliche zur primären Informationsquelle geworden. Laut einer Studie des Pew Research Center aus dem Jahr 2025 beziehen bereits 43% der unter 30-Jährigen ihre Nachrichten regelmäßig über TikTok – ein massiver Anstieg von nur 9% im Jahr 2020 [2].
Die Funktionsweise von TikTok begünstigt die Verbreitung von Desinformation in mehrfacher Hinsicht:
| Faktor | Mechanismus | Auswirkung auf Desinformation |
| Hochpersonalisierter Algorithmus | Der “For You”-Feed passt sich extrem schnell den Interessen der Nutzer:innen an und neigt dazu, extreme oder emotionale Inhalte zu bevorzugen. | Führt zur schnellen Bildung von Filterblasen und Echokammern, in denen Falschnachrichten unhinterfragt bleiben und sich verstärken. |
| Kurze Videoformate | Komplexe Sachverhalte werden stark vereinfacht dargestellt. Es fehlt der Raum für Kontext, Quellenangaben und differenzierte Betrachtungen. | Nuancen gehen verloren, was die Verbreitung von verkürzten und manipulativen Botschaften begünstigt. |
| Verschwimmen von Unterhaltung und Information | Nachrichten, Meinungen, Werbung und reine Unterhaltung sind im Feed kaum voneinander zu unterscheiden. | Die kritische Distanz zu den Inhalten sinkt. Eine politische Falschmeldung wird mit der gleichen Rezeptionshaltung konsumiert wie ein Tanzvideo. |
Das Problem der “KI-Halluzinationen” und die Krise der Gatekeeper
Die Technologie selbst ist eine Fehlerquelle. Selbst die fortschrittlichsten KI-Modelle neigen zu sogenannten “Halluzinationen”, bei denen sie überzeugend klingende, aber frei erfundene Informationen generieren [3]. Wenn Jugendliche diese Werkzeuge für Hausaufgaben oder zur Informationssuche nutzen, können sie unwissentlich zu Verbreiter:innen von Falschinformationen werden.
Verschärft wird die Situation durch eine Erosion der traditionellen Gatekeeper-Funktionen. Große Technologiekonzerne bauen ihre Kapazitäten zur Moderation und Faktenprüfung ab, anstatt sie zu stärken:
- X (ehemals Twitter): Seit der Übernahme durch Elon Musk wurden Moderationsteams massiv reduziert, was zu einer nachweislichen Zunahme von Hassrede und Desinformation geführt hat [1].
- Meta (Facebook, Instagram): Der Konzern hat angekündigt, unabhängige Faktenprüfer teilweise durch “Community Notes” zu ersetzen – ein Schritt, von dem selbst CEO Mark Zuckerberg einräumt, dass er zu mehr schädlichen Inhalten führen wird [1].
Dieses Versagen der Plattformen führt zu einem tiefen Misstrauen bei Jugendlichen. Die Studie von Common Sense Media zeigt, dass fast die Hälfte der Teenager den großen Tech-Konzernen nicht zutraut, verantwortungsvoll mit KI umzugehen [1].
Handlungsempfehlungen für Eltern und Pädagog:innen
Der Schutz Jugendlicher vor Desinformation erfordert einen mehrschichtigen Ansatz, der über einfache Verbote hinausgeht und auf die Stärkung kritischer Denkfähigkeiten abzielt.
- Den Dialog über Quellenkompetenz führen: Das Gespräch sollte sich darauf konzentrieren, wie Jugendliche Informationen bewerten. Anstatt zu fragen “Was hast du heute auf TikTok gesehen?”, könnten Eltern fragen: “Wer hat dieses Video erstellt? Was könnte seine Absicht sein? Woher hat er diese Information?” Dies fördert eine aktive, analytische Haltung.
- Die Funktionsweise von Algorithmen und KI erklären: Jugendliche müssen verstehen, dass ihr Feed kein neutrales Abbild der Realität ist, sondern ein hochgradig manipuliertes Produkt. Das Wissen über Filterblasen, Echokammern und KI-Halluzinationen ist eine Grundvoraussetzung für digitale Mündigkeit.
- Emotionale Resilienz stärken: Desinformation zielt oft auf starke Emotionen wie Wut, Angst oder Empörung ab. Jugendliche sollten lernen, diese emotionalen Reaktionen bei sich selbst zu erkennen und als Warnsignal zu deuten, das zu einer besonders kritischen Prüfung des Inhalts Anlass geben sollte.
In der EU setzt der Digital Services Act (DSA) einen rechtlichen Rahmen, der große Plattformen wie TikTok zu einem transparenteren Umgang mit ihren Algorithmen und zu wirksameren Maßnahmen gegen Desinformation verpflichtet. Die EU-Kommission führt bereits entsprechende Untersuchungen gegen mehrere Plattformen. In Österreich können sich Nutzer:innen bei Verstößen an die Kommunikationsbehörde Austria (KommAustria) als nationale Koordinierungsstelle wenden.
Eine neue Stufe der Medienkompetenz ist erforderlich
Die Kombination aus KI-gestützter Inhaltserstellung und algorithmisch gesteuerten Plattformen wie TikTok stellt die Gesellschaft und insbesondere die nachwachsende Generation vor eine immense Herausforderung. Die alte Form der Medienkompetenz, die sich auf die Unterscheidung von seriösen und unseriösen Quellen konzentrierte, reicht nicht mehr aus. Erforderlich ist eine neue, tiefgreifende kritische Kompetenz, die das Verständnis der zugrundeliegenden technologischen und psychologischen Mechanismen einschließt. Die Förderung dieser Kompetenz ist eine gesamtgesellschaftliche Aufgabe, bei der Eltern, Schulen und die Politik gleichermaßen gefordert sind, um zu verhindern, dass eine ganze Generation ihr Vertrauen in die Möglichkeit einer gemeinsamen, faktenbasierten Realität verliert.



