KI-Halluzination bezeichnet das Phänomen, bei dem ein KI-Sprachmodell selbstsicher falsche oder erfundene Informationen generiert – als wären sie wahr. Halluzinationen entstehen, weil LLMs keine ‘Wahrheitsdatenbank’ haben, sondern Wahrscheinlichkeiten berechnen.
Kritische Informationen sollten daher immer mit verlässlichen Quellen überprüft werden.
