Frage: Welche Mechanismen oder Systeme müssen Ihrer Meinung nach entwickelt werden, um die Unterscheidung zwischen KI-generierten und menschlich erstellten Inhalten zu vereinfachen?
Michael Reiss
Beantwortet am 25 Feb 2025:
last edited 25 Feb 2025 10:12 am
Nach allem was ich weiss, ist das aktuell im Zweifel sehr schwer bis unmöglich. Dennoch erfolgt der Output von KI nach gewissen statistischen Verfahren, die es möglich machen könnten, insbesondere bei längeren Texten festzustellen, ob diese KI generiert sind. Oft genug lässt es sich aber nicht feststellen (insbesondere, wenn ein Mensch das dann nochmals überarbeitet hat). Es ist aber nicht ganz auszuschliessen, dass es in Zukunft eine Technologie gibt, die das besser unterscheiden kann. Ganz sicher sollte man sich also nie sein, wenn man die Hausaufgabe durch ChatGPT erledigen lässt 😉
Zusätzlich kann man auch KI generierte Inhalte mit „Wasserzeichen“ verstehen. Das fällt dem Nutzer nicht auf, aber detektierungs-software ist sensibel dafür. Um das Flächendeckend durch zu setzen müssten dies allerdings schon die Anbieter von KI System unterstützen (also jeden Output mit einem Watermark versehen). Ich sehe hier die Verantwortung bei der Gesetzgebung und große Hürden in der Umsetzbarkeit, da man ja auch viele Modelle zuhause selber laufen lassen kann.
Wenn wir also in Zukunft keine zuverlässigeren detektierungs-systeme entwickeln können – wonach es momentan nicht aussieht – müssen wir vermutlich wieder stärker selbstständig Quellenprüfung und Medienkompetenz lernen und anwenden. Eine technische Lösung könnten Zertifikats/Trust ketten sein so wie bei HTTPS.
Das man zum Beispiel nicht allem trauen kann was im Internet steht wussten wir ja auch schon bevor es KI-generierte Inhalte gab.
Kommentare