KI-Halluzination
Im Kontext von KI ist eine Halluzination eine selbstbewusste Antwort, die von einem großen Sprachmodell generiert wird und nicht mit seinen Trainingsdaten oder Fakten aus der realen Welt übereinstimmt. Sie tritt auf, wenn das Modell Informationen „erfindet“, um Wissenslücken zu füllen, oft weil maßgebliche, strukturierte Quelldaten fehlten oder unklar waren.
Warum Halluzinationen ein Markenrisiko darstellen
KI-Halluzinationen stellen ernsthafte Risiken für Unternehmen dar. Ein LLM könnte einen gefälschten Rabattcode für Ihr Geschäft erfinden, Ihre Rückgaberichtlinien falsch zitieren, eine Funktion eines Mitbewerbers Ihrem Produkt zuschreiben oder einen veralteten Preis angeben. Diese Erfindungen beschädigen das Kundenvertrauen und können rechtliche Haftung begründen. Die Ursache ist normalerweise fehlende oder schlecht strukturierte Daten – wenn eine KI keine klaren, autoritativen Informationen finden kann, füllt sie Lücken mit Wahrscheinlichkeitsvermutungen. Die primäre Verteidigung ist strukturierte Daten über JSON-LD und Wissensgraphen. Indem Sie Fakten explizit in maschinenlesbaren Formaten deklarieren, geben Sie KI-Modellen klare, überprüfbare Informationen zur Zitierung, anstatt sie zu zwingen, Antworten zu halluzinieren.
Faktische KI-Antwort vs. Halluzination
Auswirkungen in der realen Welt
Benutzer fragt Chatbot nach eingestelltem Produkt
KI halluziniert: „Produkt X verfügbar, 49,99 $“
Kunde bestellt, entdeckt Wahrheit, fordert Rückerstattung
Produktschema enthält „Verfügbarkeit“: „Eingestellt“
KI gibt korrekt an: „Produkt X eingestellt“
Kunde erhält genaue Informationen, prüft Alternativen