Sogenante KI - Large Language Models - können nicht wahr von falsch unterscheiden bei den Daten mit denen sie gefüttert werden. Sie können auch nicht entscheiden, dass sie etwas nicht wissen.
"Solche Halluzinationen können in kritischen Bereichen wie der Medizin oder dem Rechtssystem schwerwiegende Folgen haben, wenn falsche Informationen für wahr gehalten werden.
Ursachen von Halluzinationen bei KI-Modellen
Es gibt mehrere Faktoren, die zum Auftreten von Halluzinationen beitragen: