Golem Plus Artikel Reflection Tuning bei KI: Selbstkritik bis hin zur Halluzination Sprachmodelle können eigene Fehler erkennen und daraus lernen. Wie das funktioniert und was hilft, wenn sie Fehler erfinden. 21. März 2026 um 10:00 Uhr / Eine Analyse von Fabian Deitelhoff Große Sprachmodelle (Large Language Models, LLMs) haben sich in den letzten Jahren enorm entwickelt. Doch mit steigender Komplexität erhöhen sich auch die Anforderungen an Genauigkeit, Transparenz und Zuverlässigkeit. Normale Feinabstimmung wie Supervised Fine-Tuning oder Reinforcement Learning from Human Feedback (RLHF) verbessert die Antworten, stößt aber bei komplexem Schlussfolgern oder sicherheitsrelevanten Themen an Grenzen. Eine innovative Erweiterung ist Reflection Tuning: Ein LLM führt selbstkritische Schleifen durch, um Fehler zu erkennen, daraus zu lernen und die eigenen Gewichte gezielt zu aktualisieren. Wir erklären, wie es funktioniert und wie man es implementiert.
First seen: 2026-03-21 09:35
Last seen: 2026-03-23 11:02