Eine Online-Befragung hat ergeben, dass die Mehrheit der Menschen KI-generierte Medien nicht mehr als solche identifizieren kann. Diese bahnbrechende Studie wurde erstmals auf dem 45. IEEE Symposium on Security and Privacy in San Francisco vorgestellt.
Die Studie entstand unter der Leitung von CISPA-Faculty Dr. Lea Schönherr und Prof. Dr. Thorsten Holz. Beteiligt waren die Ruhr-Universität Bochum, die Leibniz Universität Hannover, sowie die TU Berlin. Circa 3000 Personen aus Deutschland, China und den USA nahmen teil.
Risikofaktor KI-generierte Medien
Künstliche Intelligenz (KI) entwickelt sich rasant und bietet die Möglichkeit, mit nur wenigen Klicks massenhaft Bilder, Texte und Audiodateien zu generieren. Damit gehen nicht wenige Risiken einher.
„Künstlich erzeugter Content kann vielfältig missbraucht werden. Wir haben in diesem Jahr wichtige Wahlen, wie die Wahlen zum EU-Parlament oder die Präsidentschaftswahl in den USA: Da können KI-generierte Medien sehr einfach für politische Meinungsmache genutzt werden. Ich sehe darin eine große Gefahr für unsere Demokratie“, warnt Prof. Dr. Thorsten Holz.
Umso wichtiger ist es, an der automatisierten Erkennung von KI-generierten Medien zu arbeiten. Eine Aufgabe, die CISPA-Faculty Dr. Lea Schönherr als Wettlauf gegen die Zeit bezeichnet. Medien, die KI-generiert sind, würden immer schwieriger mit automatischen Methoden erkannt. Daher sei wichtig, herauszufinden, inwieweit Menschen dies einschätzen können. Zu diesem Zweck wurde die Studie ins Leben gerufen.
Text, Audio und Bild: Menschen erkennen den Unterschied nicht
Die medien- und länderübergreifende Studie hat ein erstaunliches Ergebnis: Bereits jetzt ist es für Menschen sehr schwierig, wenngleich nicht unmöglich, KI-erstellte Medien von Menschengemachten zu unterscheiden. Dies gilt dabei für alle Arten von Medien – Text, Audio, und Bild. In allen drei Kategorien haben die Teilnehmenden die KI-Medien überwiegend als von Meschen erstellt eingeordnet.
„Überrascht hat uns, dass es sehr wenige Faktoren gibt, anhand derer man erklären kann, ob Menschen besser im Erkennen von KI-generierten Medien sind oder nicht. Selbst über verschiedene Altersgruppen hinweg und bei Faktoren wie Bildungshintergrund, politischer Einstellung oder Medienkompetenz, sind die Unterschiede nicht sehr signifikant“, erklärt Holz.
Für die Online-Befragung wurden die Teilnehmenden zufällig einer der drei Medienkategorien (Text, Audio, Bild) zugeordnet. Die Studie lief zwischen Juni 2022 und September 2022, und die Befragten wurden mit 50 % realen und 50 % KI-generierten Medien konfrontiert. Dabei haben die Forschenden die in der Studie verwendeten KI-Dateien selbst generiert, die Bilder übernahmen sie aus einer existierenden Studie. Die Bilder waren fotorealistische Porträts, als Texte wurden Nachrichten gewählt und die Audio-Dateien waren Ausschnitte aus Literatur. Zur weiteren Einordnung wurden sozio-biografische Daten, das Wissen zu KI-generierten Medien sowie Faktoren wie Medienkompetenz, holistisches Denken, generelles Vertrauen, kognitive Reflexion und politische Orientierung erhoben. Nach der Datenbereinigung blieben 2.609 auszuwertende Datensätze übrig.
Weiterführende Forschungen sollen folgen
Für die Cybersicherheitsforschung sind die Ergebnisse der Studie von großem Wert. Schönherr betont, wie mithilfe von KI-Phishing-E-Mails und andere Online-Betrugsversuche in Zukunft so personalisiert werden könnten, dass Opfer die Fallen nicht mehr als solche erkennen. Die Studienergebnisse sollen dazu beitragen, Abwehrmechanismen für derartige Szenarien zu entwickeln.
Ferner weist das Projekt den Weg für weitere Forschung. Eine Laborstudie, bei der Teilnehmende genau erklären sollen, woran sie sie erkennen, ob etwas KI-generiert ist oder nicht, ist bereits in Planung.
Zur vollständigen Studie geht es hier.