Geist aus der Flasche

Gedanken des KI- und Datenschutz-Experten Christian Bennefeld zu Chancen und Risiken neuer Technologien.

Beispiel für ein KI-Bild.

Der KI- und Datenschutz-Experte Christian Bennefeld über Deepfakes, Chancen und Risiken von Videogeneratoren für Konsumenten und Kreative und die Urheberrechtsproblematik im Zeitalter textgenerierter Bilder.

digit!: Christian, du beschreibst dich selbst als kritischen KI- und Privacy-Experten. Was steckt hinter diesen Schlagwörtern?

Christian Bennefeld: Früher war ich IT-Security-Berater und habe unter anderem mit etracker einen Dienst aufgebaut, mit dem man per Tracking Nutzerverhalten analysieren und Online-Marketing entsprechend optimieren kann. Später habe ich mit eBlocker eine Lösung entwickelt, die genau das Gegenteil macht, nämlich User-Bewegungen zu anonymisieren, auch um dem exzessiven Ausspionieren durch Unternehmen wie Google etwas entgegenzusetzen. Zielgruppe sind Menschen, die sich unerkannt bewegen wollen oder müssen, Dissidenten oder Whistleblower etwa.

Seit wann beschäftigst du dich mit KI?

CB: Das Thema treibt mich seit etwa vier Jahren um. Hin und wieder programmiere ich sogar selber, vor allem, um zu erkunden, was in den Grenzbereichen der KI-Tools möglich ist.

Was heißt Grenzbereich?

CB: Konkret versuche ich, technische Sperren von text- oder bildgenerierenden KI-Lösungen zu durchbrechen. Ziel ist es, auf die mit der Technologie verbundenen Gefahren aufmerksam zu machen.

Welche Gefahren siehst du konkret?

CB: Die der Medienmanipulation beispielsweise. Einige Deepfakes mögen harmlos sein – das „Foto“ des Papsts in der weißen Designer-Daunenjacke etwa oder das Video, in dem Barack Obama Donald Trump als „kompletten Volltrottel“ bezeichnet. Ernstere Folgen haben Deepfake-Videos, wie jenes, in dem Selenski vermeintlich zur Kapitulation aufruft, oder pornografische Fakes, in denen Prominente wie Taylor Swift eingebaut werden. Und da ist der Fall eines Hongkonger Buchhalters, der unlängst in einer Video-Team-Sitzung vermeintlich von seinem CEO angewiesen wurde, 24 Millionen Dollar auf ein bestimmtes Konto zu überweisen. Der Videocall war von Betrügern gefakt, das Geld futsch. Noch schlimmer: „kinderpornografische“ Inhalte, die per KI generiert werden. Diese Art der Fake-Reality ist tatsächlich zu einem Massenphänomen geworden. Das Tragische: Noch braucht man dazu einiges an technischem Know-how, aber es wird zusehends einfacher.

OpenAI hat vor Kurzem Sora vorgestellt, ein Text-to-Video-System, mit dem sich realistisch wirkende, bis zu einer Minute lange KI-Clips generieren lassen. Wie viel Vorwissen braucht der Anwender?

CB: Sora ist bislang noch nicht frei nutzbar, ich selbst habe damit noch nicht arbeiten können. Aber es dürfte auf einer ähnlichen Technologie basieren wie die Open-Source-Lösung Stable Video Diffusion, die im November letzten Jahres gelauncht wurde. Stable Video Diffusion erstellt zwar nur sekundenlange Videos von geringerer Qualität, diese lassen sich aber ganz einfach mit Prompts, die aus wenigen Sätzen bestehen, generieren. Ich gehe davon aus, dass Sora auf einer ähnlichen Technologie fußt. Vermutlich reichen als Prompts die unter den von OpenAI gezeigten Videobeispielen stehenden Text-to-Video-Befehle.

Wie muss man sich die Technik hinter Sora & Co vorstellen?

CB:  …

 


Sie wollen den kompletten Beitrag in der aktuellen Ausgabe lesen? Hier können Sie die digit! 1-2024 kaufen!


 

TIPA Banner