Startseite › Foren › Computer & Internet › Auch eine KI kann krank werden
-
Auch eine KI kann krank werden
-
KIs wie ChatGPT neigen unter bestimmten Umständen zu Halluzinationen. So bezeichnen KI-Forscher ein Phänomen, bei dem die KI wissenschaftliche Studien, juristische Präzedenzfälle und Ähnliches erfindet. Ein typischer Fall soll sich in den USA ereignet haben, bei dem eine Klage eingereicht wurde und sämtliche angeführten Präzedenzfälle frei erfunden waren. Der Anwalt hatte seine Klageschrift vermutlich von einer KI verfassen lassen und das Ergebnis nicht kontrolliert. Solche Halluzinationen sind des Öfteren aufgetreten und das Problem wurde von Fachleuten bestätigt. Ein KI-Forscher geht sogar so weit zu sagen, dass KIs grundsätzlich halluzinieren, aber häufig etwas brauchbares dabei herauskommt.
ChatGPT und Konsorten sind nach wie vor nicht als Ersatz für eine Suchmaschine geeignet. Die Ausgabe muss auf jeden Fall kontrolliert werden, zudem ist bei Fachtexten nicht sichrgestellt, dass die KI auf dem neuesten Stand des Wissens ist. Trotzdem gibt es Bereiche, in denen sie brauchbare Ergebnisse liefern.
Halluzinationen von künstlicher Intelligenz: wie sie entstehen und was wir dagegen tun können -> klick mich
Wikipedia Halluzinationen (Künstliche Intelligenz) -> klick mich
KI-Halluzinationen: Wenn ChatGPT Fakten erfindet -> klick mich
Sie müssen angemeldet sein, um zu antworten.