Warum halluzinieren LLMs manchmal?

Frage

Warum erfinden Large Language Models manchmal Fakten, die nicht stimmen?

Kurze Antwort

LLMs haben kein Weltwissen im menschlichen Sinn. Sie berechnen Wahrscheinlichkeiten für das nächste Wort. Wenn die statistische Verteilung zu einem Thema unsicher ist, erzeugen sie plausibel klingenden aber falschen Text – eine sogenannte Halluzination.

Ursachen

UrsacheErklärung
Kein FaktengedächtnisLLMs speichern keine Datenbank – sie lernen statistische Muster aus Text
Lücken in TrainingsdatenZu seltenen Themen gibt es wenig Signal, das Modell „rät"
ÜberverallgemeinerungMuster aus häufigen Kontexten werden auf unpassende Fälle übertragen
Kein „Ich weiß nicht"Das Modell ist darauf trainiert, immer eine Antwort zu geben
Veraltetes WissenTrainingsdaten haben einen Stichtag – neuere Fakten fehlen
Lange KontexteBei sehr langen Gesprächen kann das Modell den Überblick verlieren

Beispiel

Frage: „Wer hat das Buch Die Stille der Lämmer geschrieben?"

Ein LLM könnte antworten: „Thomas Harris, erschienen 1988" – korrekt.
Aber bei einer obskuren Frage wie „Wer war der dritte Bürgermeister von Kleinkleckersdorf?" erfindet es möglicherweise einen Namen, der plausibel klingt, aber nie existiert hat.

Wichtig: Halluzinationen sind kein „Lügen" im menschlichen Sinn. Das Modell hat keine Absicht zu täuschen – es produziert die statistisch wahrscheinlichste Fortsetzung, auch wenn diese faktisch falsch ist.

Typen von Halluzinationen

Gegenmaßnahmen

Forschungsfeld

Halluzinationen sind eines der größten offenen Probleme in der LLM-Forschung. Aktive Bereiche:

← Zurück zur KI-Übersicht