Funktionsweise von Sprachmodellen:
Generative KI-Modelle arbeiten auf Basis von Wahrscheinlichkeiten. Sie lernen, indem sie Regeln und Wahrscheinlichkeiten aus ihren Trainingsdaten erzeugen (vgl. Ki Modelle aus verschiedenen Ländern, Datenbasis). Diese Regeln verwendet die KI anschließend, um Antworten auf Prompts zu erstellen. Das bedeutet, dass sie nicht zwingend Fakten präsentieren, sondern das, was sie aufgrund ihrer Trainingsdaten für am wahrscheinlichsten halten.

Aber was, wenn die KI keine, begrenzte oder nicht genügend Grundlagen für Regeln in den Trainingsdaten hat? Dann werden Informationen erzeugt, die als Antwort ausgegeben werden und plausibel erscheinen – diese sind jedoch faktisch falsch und ihre Quellen existieren nicht. Manche Antworten sind zwar so absurd, dass sie sofort als falsch erkennbar sind, andere jedoch klingen richtig und scheinen sogar mit Quellenangaben korrekt hinterlegt.
Check: Da ein Sprachmodell weder Ihre Eingabe noch den produzierten Text „versteht“ und auf Logik und Korrektheit überprüfen kann, lassen sich sogenannte „Halluzinationen“ nicht ausschließen.
Bedenken Sie immer, dass Sie für die Inhalte, die präsentieren, selbst verantwortlich sind. Bei der Nutzung der KI-basierten Werkzeugen, sollten Sie sich dieser möglichen Probleme bewusst sein.
Künstliche Intelligenz trifft Entscheidungen auf Faktenlage und bleibt, im Gegensatz zum Menschen, stets neutral. So jedenfalls die allgemeine Überzeugung. Doch sowohl im Code als auch in den Daten sind Vorurteile verbaut: KI diskriminiert jeden Tag.
Quelle: ARD Audiothek
Team digitaler Unterricht, Medienkompetenz @BSL