Skip to main content

Ob der Papst in modischer Designer-Jacke oder ein fiktiver Meteoriteneinschlag in der Nachbarstadt – Bilder, die von Künstlicher Intelligenz (KI) erschaffen wurden, sind allgegenwärtig. Sie faszinieren und verunsichern zugleich. Für Lehrkräfte entsteht daraus eine neue, zentrale Aufgabe: Schüler:innen das nötige „digitale Handwerk“ zu vermitteln, um visuelle Fälschungen zu erkennen und Quellen kritisch zu hinterfragen.

Die rasante Entwicklung von KI-Bildgeneratoren wie Midjourney, DALL-E oder Stable Diffusion hat eine neue Ära der Bildmanipulation eingeläutet. Während die kreativen Möglichkeiten beeindruckend sind, steigt auch das Potenzial für Desinformation, Propaganda und Cybermobbing. Die Fähigkeit, die Echtheit eines Bildes zu bewerten, wird damit von einer Nischenkompetenz für Expert:innen zu einer essenziellen Kulturtechnik für alle. Dieser Leitfaden bietet Lehrkräften eine praktische Hilfestellung, um das Thema im Unterricht handlungsorientiert und nachhaltig zu verankern.

Das geschulte Auge: Eine Checkliste zur Bildanalyse

Der erste und wichtigste Schritt zur Entlarvung einer Fälschung ist die genaue, fast detektivische Analyse des Bildes. Auch wenn KI-Modelle stetig dazulernen, weisen ihre Kreationen oft noch typische Fehler und Ungereimtheiten auf. Die folgende Checkliste fasst die häufigsten verräterischen Merkmale zusammen und kann als praktisches Werkzeug im Unterricht dienen.
Merkmal
Worauf zu achten ist
Hände und Gliedmaßen
Die korrekte Darstellung von Händen bleibt eine der größten Hürden für KI. Oft haben abgebildete Personen zu viele oder zu wenige Finger, die Gliedmaßen sind unnatürlich verdreht oder die Proportionen stimmen nicht.
Gesichter und Augen
Unnatürlich glatte, porenlose Haut („Wachsfiguren-Effekt“), asymmetrische Augen, seltsam geformte Ohren oder inkonsistente Spiegelungen in den Pupillen können auf eine Fälschung hindeuten.
Text und Symbole
Von KI generierte Schriftzüge im Bildhintergrund, auf Kleidung oder auf Schildern sind häufig ein unleserliches Kauderwelsch oder eine Fantasiesprache. Die korrekte Darstellung von Text ist für viele Modelle noch schwierig.
Logik und Physik
Oft widersprechen die Bilder den Gesetzen der Physik. Schatten fallen in die falsche Richtung, Lichtquellen sind unlogisch, oder Objekte verschmelzen auf seltsame Weise miteinander. Auch die Perspektive kann verzerrt sein.
Hintergrund und Details
Der Bildhintergrund ist häufig unscharf oder weist sich wiederholende, unlogische Muster auf. Details, die weiter entfernt sind, können deformiert oder inkonsistent erscheinen.
Konsistenz von Objekten
Bei Porträts sollten Details wie Ohrringe, Brillen oder Muster auf der Kleidung auf beiden Seiten konsistent sein. Oft „vergisst“ die KI solche Details auf einer Seite oder stellt sie fehlerhaft dar.
Die gemeinsame Analyse von Bildern anhand dieser Checkliste schärft den kritischen Blick der Schüler:innen und fördert eine grundlegende Haltung des gesunden Misstrauens gegenüber visuellen Inhalten, deren Ursprung unklar ist.

Vom Erkennen zum Verstehen: Eine praktische Unterrichtseinheit

Um das Thema nachhaltig im Klassenzimmer zu verankern, eignet sich eine handlungsorientierte Unterrichtseinheit, die den Schüler:innen die Rolle von „digitalen Detektiv:innen“ zuweist. Eine solche Einheit könnte in vier Schritten ablaufen:
1.Sensibilisierung: Zum Einstieg präsentiert die Lehrkraft einige eindrückliche Beispiele von KI-Bildern, die viral gegangen sind (z.B. der Papst in der Daunenjacke). Im Klassengespräch wird erörtert, warum diese Bilder so überzeugend wirken und welche Gefahren von solchen Fälschungen ausgehen können.
2.Analyse in Gruppen: Die Klasse wird in Kleingruppen eingeteilt. Jede Gruppe erhält einen Satz von Bildern, der eine Mischung aus echten Pressefotos und KI-generierten Fakes enthält. Anhand der oben genannten Checkliste analysieren die Schüler:innen die Bilder und halten ihre begründeten Vermutungen fest, welche Bilder echt und welche gefälscht sind.
3.Verifikation mit digitalen Werkzeugen: Im Anschluss lernen die Schüler:innen ein einfaches, aber mächtiges digitales Werkzeug kennen: die Bilderrückwärtssuche (Reverse Image Search). Suchmaschinen wie Google oder TinEye bieten diese Funktion kostenlos an. Dabei wird eine Bilddatei oder deren URL hochgeladen, und die Suchmaschine zeigt, wo und in welchem Kontext dieses Bild bereits im Internet verwendet wurde. Handelt es sich um ein echtes Foto eines bekannten Ereignisses, finden sich schnell seriöse Quellen wie Nachrichtenagenturen oder anerkannte Medien. Taucht das Bild hingegen nirgends auf oder nur auf dubiosen Webseiten und in Foren, ist die Wahrscheinlichkeit einer Fälschung sehr hoch.
4.Reflexion und Diskussion: Jede Gruppe präsentiert ihre Ergebnisse und erklärt, wie sie zu ihrer Einschätzung gekommen ist. Besonders spannend ist der Vergleich der ursprünglichen Vermutung mit dem Ergebnis der Bilderrückwärtssuche. Im Abschlussgespräch wird reflektiert, wie leicht man sich täuschen lässt und warum eine schnelle, intuitive Bewertung oft nicht ausreicht.

Digitale Mündigkeit als Bildungsziel

Die Auseinandersetzung mit KI-generierten Bildern im Unterricht ist weit mehr als eine technische Übung. Sie berührt Kernbereiche der Persönlichkeitsbildung und der psychischen Gesundheit. Wenn Schüler:innen lernen, dass visuelle Darstellungen manipulierbar sind, entwickeln sie nicht nur eine kritische Distanz zu Medieninhalten, sondern werden auch widerstandsfähiger gegenüber gezielten Täuschungsversuchen. Dies ist besonders relevant in einer Zeit, in der unrealistische Schönheitsideale oder gefälschte Darstellungen von Ereignissen das Weltbild und das Selbstwertgefühl junger Menschen negativ beeinflussen können. Eine proaktive, aufklärende Herangehensweise im geschützten Raum der Schule ist daher der beste Schutz gegen die potenziellen Gefahren von Desinformation und ein unverzichtbarer Beitrag zur digitalen Mündigkeit der nächsten Generation.