KI scheint heute fast alles zu können: Schreiben, rechnen, singen oder gar schauspielern. Aber auch Menschen ausziehen, die nie nackt vor der Kamera gestanden sind. Immer häufiger kursieren im Netz täuschend echte Nacktbilder, generiert von künstlicher Intelligenz: sogenannte Deepfake-Nudes. Betroffen sind oft Prominente – vor allem junge Frauen. Heute.at berichtet gerne über solche Fälle – und verbreitet dabei die problematischen Nacktbilder munter weiter.
„Jemand macht Geld mit Fake-Nacktbildern von mir“: Ja, die Heute-Zeitung!
Im Frühjahr dieses Jahres berichtete Heute.at über die Schweizer Influencerin nathistyle. Ein Mann habe sie über alle Kommentarspalten hinweg mit Nachrichten bombardiert, ihr eine „Betrugsmasche“ vorgeworfen und damit gedroht, die Polizei einzuschalten. In Wirklichkeit war der Mann auf ein gefälschtes Profil hereingefallen, das sich als die Influencerin ausgab. Der Person hinter diesem Profil hatte der Mann dann Geld überwiesen, und zwar in der Erwartung, dafür Nacktbilder von der Influencerin zu erhalten. Diese wurden mit KI erstellt.
Das Titelbild, das die Heute-Redaktion auswählt, zeigt jedoch ausgerechnet das Deepfake-Nude selbst: scheinbar nathistyle, nackt in einem Spiegel-Selfie. Im ursprünglich auf Instagram veröffentlichten Originalfoto trägt die Frau ein weißes Kleid, das im Bild dann digital entfernt wurde. Darüber kleben nun nur noch eine Handvoll hautfarbener Pixel.
Die Heute-Redaktion schreibt unter dem Bild:
„Mit diesem Fake-Nacktbild der Influencerin Nathistyle verdient jemand Geld.“
Genau. Nämlich nicht nur die Person hinter dem Fake-Profil, sondern auch Heute.at selbst.










