Dein KI-Tutor hat dir gerade eine selbstbewusste, gut formulierte Antwort gegeben — und irgendetwas fühlt sich komisch an. Vielleicht passt das Datum nicht zu dem, was du in Erinnerung hast. Vielleicht hat die Formel eine Variable zu viel. Vielleicht hat die zitierte historische Persönlichkeit das nie wirklich gesagt. Willkommen in der Welt der KI-Halluzinationen, in der das Modell richtig klingt, es aber nicht ist.
Halluzinationen sind eine bekannte Schwäche großer Sprachmodelle. Für Lernende sind sie nicht nur ärgerlich — sie können sich in deine Notizen, deine Karteikarten und letztlich in deine Prüfungsantworten einschleichen. Die gute Nachricht: Wenn du weißt, worauf du achten musst, sind sie überraschend leicht zu erkennen.
Was eine Halluzination eigentlich ist
Eine Halluzination entsteht, wenn eine KI eine Aussage produziert, die selbstbewusst falsch ist. Sie rät nicht und relativiert nicht — sie behauptet etwas als Tatsache, das keine Grundlage in der Realität hat. Das kann eine erfundene Quellenangabe sein, eine falsch berechnete Gleichung, ein fingiertes historisches Zitat oder eine klinische Leitlinie, die es gar nicht gibt.
Der Grund ist einfach. Sprachmodelle werden darauf trainiert, plausiblen Text zu erzeugen, nicht darauf, Wahrheit zu überprüfen. Wenn die Trainingsdaten Lücken oder Widersprüche haben, füllt das Modell diese mit dem, was am wahrscheinlichsten klingt — was manchmal korrekt ist und manchmal reine Erfindung.
Warnzeichen, auf die du achten solltest
Es gibt wiederkehrende Muster, die darauf hindeuten, dass die KI sich etwas ausdenkt:
- Ungewöhnlich präzise Details ohne Quelle. „Eine Harvard-Studie von 2019 ergab, dass 73,4 Prozent der Studierenden ..." — so genaue Zahlen stammen fast immer von irgendwoher. Wenn die KI die Studie nicht nennen kann, sei misstrauisch.
- Selbstbewusste Aussagen bei Nischenthemen. Je obskurer das Thema, desto höher die Halluzinationsrate. Wenn du nach einer seltenen Wechselwirkung zwischen Medikamenten oder einem ungewöhnlichen historischen Ereignis fragst, prüfe doppelt.
- Antworten, die sich ändern, wenn du umformulierst. Stell dieselbe Frage auf zwei verschiedene Arten. Wenn du zwei verschiedene „Fakten" bekommst, ist mindestens einer davon falsch.
- Mathematik, die richtig aussieht, aber nicht aufgeht. Rechne eine kritische Berechnung immer von Hand oder mit dem Taschenrechner nach. KI-Arithmetik ist notorisch unzuverlässig.
- Zitate und URLs. Erfundene Quellenangaben gehören zu den häufigsten Halluzinationstypen. Klicke URLs immer an, bevor du einer Quelle vertraust.
Schnelle Prüfgewohnheiten
Du musst nicht jeden Satz auf Fakten überprüfen. Du brauchst nur ein paar schnelle Kontrollen, die automatisch werden:
- Frag nach der Quelle. Wenn die KI dir nicht sagen kann, aus welchem Lehrbuchkapitel oder Aufsatz die Information stammt, behandle sie als Hypothese, nicht als Tatsache.
- Gleich mit deinen Kursmaterialien ab. Wenn dein Lehrbuch oder deine Vorlesungsnotizen der KI widersprechen, gewinnen deine Kursmaterialien. Immer.
- Lass die KI den Rechenweg zeigen. Eine Schritt-für-Schritt-Herleitung ist viel schwieriger zu halluzinieren als eine einzeilige Antwort.
- Mach einen Plausibilitätscheck gegen eine zweite Quelle. Für alles, was du dir merken willst, verbringe 30 Sekunden damit, es in einem Lehrbuch, auf Wikipedia oder einer vertrauenswürdigen Website zu bestätigen.
Nutze KI, die sich an deinen Materialien verankert
Der wirksamste Weg, Halluzinationen zu reduzieren, ist, der KI weniger Raum zum Erfinden zu geben. Wenn du dein eigenes Lehrbuch hochlädst, kann die KI aus genau dieser Quelle lesen, statt aus dem Gedächtnis zu generieren. Deshalb senken materialgestützte Tutorplattformen die Halluzinationsrate drastisch — jede Behauptung lässt sich auf eine bestimmte Seite eines bestimmten Dokuments zurückführen, dem du vertraust.
Wenn du einen ungeerdeten Chatbot über Mitochondrien fragst, greift er auf einen verschwommenen Durchschnitt all dessen zurück, was er jemals über Zellen gesehen hat. Wenn du einen materialgestützten Tutor fragst, liest er Seite 142 deines Biologiebuchs und zitiert den genauen Absatz.
Das Wichtigste in Kürze
KI-Tutoring ist mächtig, aber nicht unfehlbar. Behandle die KI wie einen brillanten Lernpartner, der gelegentlich zu selbstsicher ist — in 95 Prozent der Fälle hilfreich, in den restlichen fünf falsch und selten bereit, das zuzugeben. Mach es dir zur Gewohnheit, alles zu überprüfen, worauf du dich verlassen willst, nutze Erdung, wann immer du kannst, und vertraue deinem Lehrbuch mehr als dem Bot, wenn beide sich widersprechen. iTutor ist genau nach diesem Prinzip aufgebaut: Antworten werden auf deine hochgeladenen Materialien zurückgeführt, sodass du in zwei Klicks überprüfen kannst, statt uns aufs Wort zu glauben.