KI-Bilder: Glaub nicht alles, was du siehst
Die neuen Möglichkeiten, durch Künstliche Intelligenz (KI) neue Bilder zu erzeugen, ist faszinierend. Die Gefahr von Deepfakes wächst rasant mit.
Im letzten Jahr sorgte der Papst in dicker Daunenjacke für Staunen. Ein manipuliertes, beziehungsweise gefälschtes Bild, das dank KI ziemlich realistisch anmutet. Seitdem haben die technischen Möglichkeiten, per Deepfake mit Fotos, Videos oder Audiodateien eine falsche Realität vorzuspiegeln, noch einmal rasant zugenommen. Bei einigen Fake-Bildern von Ex-Präsident Donald Trump mit schwarzen Frauen oder jungen schwarzen Männern, baute eine KI anatomische Fehler wie fehlende Finger ein. Nun verspricht die KI Flux.1 des deutschen Startups Black Forest Lab ziemlich fotorealistische Bilder – wie etwa auch das Handelsblatt jüngst berichtete.
Das Problem daran: Seit Mitte August ist die KI aus dem Schwarzwald Premiumpartner auf der umstrittenen Plattform X, vormals Twitter. Premiumkunden können mit ein paar Befehlen falsche Wirklichkeiten produzieren und verbreiten. Die Ergebnisse an Deepfakes gelten aber als besser als die des Bildgenerierungstools Dall-E. Zudem moniert das Handelsblatt, dass anscheinend Flux.1 KI-generierte Bilder von realen Personen oder Marken nicht unterbindet.
Andere User können in der Regel – ohne geeignete Prüfungstools – kaum noch erkennen, ob ein Deepfake Wahrheit oder Lüge transportiert. Es sei denn, das Motiv ist von der Bildaussage offensichtlich Humbug. So wie das bei X abgebildete Duo Trump und Harris, bei der der Ex-Präsident liebevoll seine Hand auf Harris entblößten, hochschwangeren Bauch legt. Die vielfach geforderte Kennzeichnung von KI-Medien steht noch aus.
Grundsätzlich sind Bilder, die mit einer KI von Dall-E, Midjourney, Adobe Firefly & Co. bearbeitet oder generiert werden, hilfreiche Tools. Abgesehen davon, dass sie in Deutschland keinen Urheberrechtsschutz genießen, ist der Einsatz das entscheidende Kriterium für Nutzen oder Gefahr.