• Frage: Wie sehr kann ich auf das Wissen von KI vertrauen?

    Frage gestellt dear30bar am 25 Feb 2025.
    • Foto: Fabio Barth

      Fabio Barth Beantwortet am 25 Feb 2025:


      Um zu verstehen, wie eine Künstliche Intelligenz (KI) Wissen bekommt, muss man wissen, woher ihre Informationen stammen. Viele textbasierte KIs, wie zum Beispiel ChatGPT, lernen aus Daten aus dem Internet. Dabei gibt es vertrauenswürdige Quellen wie wissenschaftliche Artikel und seriöse Nachrichtenwebseiten, aber auch weniger zuverlässige Seiten.

      Vielleicht kennst du das aus der Schule: Wenn du eine Präsentation machst, sagt die Lehrerin oder der Lehrer oft, dass du dich nicht nur auf Wikipedia verlassen sollst. Genau das ist auch ein Problem für KI – sie nutzt Wikipedia und viele andere Quellen, aber nicht alle davon sind wirklich verlässlich.
      Doch die Frage nach der Herkunft und Verlässlichkeit von KI-generiertem Wissen ist weit komplexer und in der Wissenschaft noch nicht abschließend geklärt.

      Die Art, wie eine KI antwortet, ist anders als unser menschliches Denken. Eine KI entscheidet nicht logisch oder kritisch über die beste Antwort, sondern sie berechnet, welches Wort mit der höchsten Wahrscheinlichkeit als Nächstes kommt. Diese Wahrscheinlichkeiten beruhen auf den Daten, mit denen die KI trainiert wurde.

      Daraus ergeben sich zwei wesentliche Konsequenzen:

      1. Die KI kann nicht überprüfen, ob die von ihr generierten Inhalte tatsächlich mit der Realität übereinstimmen. Dadurch entstehen gelegentlich falsche oder erfundene Informationen – ein Phänomen, das als „Halluzination“ bezeichnet wird.

      2. Wenn unklar ist, welche Daten eine KI zum Lernen genutzt hat, können wir nicht sicher sagen, ob ihre Antwort vertrauenswürdig ist und auch keine Rückschlüsse darauf ziehen woher diese Information kommt.

      Ein weiterer wichtiger Punkt: Da KI immer nur Wahrscheinlichkeiten berechnet, ist ein gewisses Maß an Unsicherheit unvermeidbar. Deshalb kann man sich nie vollständig auf eine KI verlassen. Sie kann sehr hilfreich sein, aber es ist wichtig, ihre Antworten zu überprüfen – genau wie bei jeder anderen Informationsquelle im Internet.

    • Foto: Max Schindler

      Max Schindler Beantwortet am 25 Feb 2025:


      Das ist eine sehr gute Frage.

      ChatGPT selber sagt dazu z.B. folgendes:

      Das hängt stark von der Art des Wissens ab, das du suchst, und von der spezifischen KI, die du nutzt. Hier sind einige wichtige Faktoren:

      1. Verlässlichkeit & Quellenlage

      KI-Modelle wie ich basieren auf großen Datenmengen, aber ich kann keine Echtzeit-Webrecherche ohne ein spezielles Tool durchführen.
      Fakten aus etablierten wissenschaftlichen oder offiziellen Quellen sind meist zuverlässig. Aber KI kann nicht immer garantieren, dass die neuesten Erkenntnisse einbezogen sind.

      2. Fehleranfälligkeit & Halluzinationen

      KI kann falsche oder erfundene Informationen liefern („Halluzinationen“), insbesondere wenn sie keine verlässlichen Quellen zur Verfügung hat.
      Besonders bei komplexen oder umstrittenen Themen ist eine unabhängige Überprüfung wichtig.

      3. Objektivität & Verzerrungen

      KI-Modelle spiegeln oft die Verzerrungen (Bias) der Daten wider, auf denen sie trainiert wurden.
      Politische, soziale oder ethische Themen können daher eine gewisse Tendenz aufweisen, auch wenn versucht wird, neutral zu bleiben.

      Meine Einordnung dazu ist, dass ChatGPT seine eigene Fehlbarkeit hier gut zusammengefasst hat. Insgesamt würde ich dem Wissen von KI nicht vertrauen. KIs wie ChatGPT sind ein super Tool um erste Ideen zu bekommen oder um z.B. Texte zu überarbeiten (sprachlich), aber es gibt keine Garantie dafür, dass die Aussagen von KIs inhaltlich richtig sind.

Kommentare