KI Fakes: war’s das jetzt mit der Wahrheit?

KI-Logbuch
Inspiration, Entdeckungen, Anwendungen

KI Fakes: war’s das jetzt mit der Wahrheit?

Created on 2024-11-05 17:55

Published on 2024-11-06 05:00

Liebe Neugierige, Kreative, Entdecker*innen,

raue Zeiten, wenn man sich anschaut, dass mittlerweile jeder Kasperle und seine Oma mit einem Handy in der Hand ein Deepfake des Direktors beim Äpfel stehlen erstellen kann. Ja, ich weiß, völlig beknacktes Szenario, aber das, was tatsächlich teils mit Deepfakes gemacht wird, erzeugt bei mir Würgereflexe, also lieber die Äpfel.

Nun rücken aber die Nutzungsszenarien Künstlicher Intelligenz (KI) weiter unaufhaltsam in unser Leben – in immer mehr Bereiche! Und so wird, neben zugegebenermaßen auch vielen positiven Szenarien, auch das Bedrohungsszenario durch KI-Fälschungen für jeden einzelnen von uns immer realer. Aber manchmal muss man eben auch mal den Finger in die Wunde legen. Deshalb kümmern wir uns diese Woche mal darum, wie wir in der digitalen Ära gegen Fake-News, gefälschte Bilder und Stimmen vorgehen können, ohne unser Vertrauen in die Technologie und (noch viel wichtiger) unser Vertrauen in die Wahrheit an sich, zu verlieren.

„Es gab die Wahrheit und die Unwahrheit, und wenn man an der Wahrheit festhielt, sogar gegen die ganze Welt, war man nicht verrückt.“ – George Orwell, 1984


Wie KI-Fälschungen entstehen und was sie bedrohlich macht

Die Fähigkeit von KI, nahezu fotorealistische Bilder, authentisch klingende Stimmen und überzeugende Videosequenzen zu erzeugen, hat die Verbreitung von Fake-News und Desinformation beinahe schon salonfähig gemacht. Wie funktionieren diese Technologien, welche Anwendungen haben sie und welche ethischen Überlegungen werfen sie auf?

Der Autor (links) in einer Szene aus „2001 – Odyssee im Weltraum“.

Technische Grundlagen

KI-Fälschungen, auch bekannt als Deepfakes, nutzen neuronale Netze, um Bilder, Videos oder Audio zu manipulieren oder zu erzeugen. Diese Programme werden mit großen Datenmengen trainiert, um menschliche Gesichter, Stimmen und Bewegungen nachzuahmen und können dazu verwendet werden, um Personen in Situationen zu zeigen, die nie stattgefunden haben, oder um eine Person in eine andere Situation zu setzen. Stimmen können mit RVC lokal auf dem eigenen PC geklont werden. Bilder wie die in diesem Artikel werden mit lokalen Programmen wie „Forge“ erstellt, die Gesichter über Programme wie fluxgym trainiert. Das geht mit entsprechender Hardware schon mit ca. 20 Bildern der Zielperson und 3 Stunden Rechenleistung. Videos faked man lokal mit Programmen wie „FaceFusion„. Keines der Programme kosten Geld, sind selber installierbar, brauchen aber (noch) etwas Kenntnisse. FaceFusion gibt es auch als One-Click Installer gegen eine kleine einmalige Gebühr. Alles kein Hexenwerk mehr. Und die Konsequenzen? Schauen wir uns das einmal als nächstes an.

Bild generiert mit FLUX Dev und einem speziell auf mein Gesicht trainierten LORA: (Low-rank Adaptation) eine Möglichkeit, ein großes Machine Learning-Modell für bestimmte Anwendungen anzupassen, ohne das gesamte Modell neu zu trainieren.

Anwendungen und Auswirkungen

  • Verschwörungstheorien und Fake-News: KI-Fälschungen können dazu genutzt werden, um vermeintliche Beweise für Verschwörungstheorien zu liefern oder politische Gegner zu diffamieren.

  • Betrug und Phishing: Stimmen von Verwandten oder Freunden können imitiert werden, um in Phishing-Anrufen vertrauliche Informationen oder Geld zu erpressen.

  • Desinformation: Politische Akteure oder Organisationen können KI-Fälschungen einsetzen, um die öffentliche Meinung zu beeinflussen oder Wahlen zu manipulieren.

  • Ethik und Transparenz: Die ethische Dimension der KI-Fälschungen ist gewaltig. Es ist eine Herausforderung, zwischen der Nutzung der Technologie zur Unterhaltung oder Bildung und der Missbrauch zur Täuschung und Manipulation zu unterscheiden. Transparenz und Verantwortlichkeit sind von zentraler Bedeutung.


Und wer macht da mal was?

Forschung dazu, wie man Deepfakes erkennen und entgegen wirken kann, gibt es zahlreiche. Hier eine Auswahl führender Forscher, die sich mit Gegenmaßnahmen gegen Deepfakes auseinander setzen:

  • Mark Green von der University of California, Los Angeles (UCLA): Green leitet das Institute for Pure and Applied Mathematics (IPAM) und organisiert Workshops zu den wissenschaftlichen, gesellschaftlichen und rechtlichen Aspekten von Deepfakes.

  • Bimal Viswanath von der Virginia Tech: Assistenz Professor Viswanath und sein Team arbeiten an der Erkennung und Entschärfung von gefälschten Medien und Desinformation.

  • Siwei Lyu von der University at Buffalo, State University of New York: Professor Lyu ist bekannt für seine Forschung in den Bereichen Deepfake-Erkennung und digitale Medienforensik. Er hat Techniken entwickelt, die Inkompatibilitäten be

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert