GPTs geben regelmäßig auch falsche Antworten – sie halluzinieren. Die Gründe für das Halluzinieren sind vergleichsweise banal. Die LLMs berechnen für ihre Antworten Wahrscheinlichkeiten – Buchstabe für Buchstabe, Wort für Wort. Es geht darum, welches auf das nächste folgen könnte. Doch gerade falsche Antworten können für Unternehmen peinlich sein. Wie lässt sich das Risiko von Halluzinationen verringern?









