Reasoning Traps umgehen

Reasoning Traps umgehen

Ich bin totaler Fan des Gemini 3.0 Reasonings und wie verwenden das zunehmend, um Lösungen in technischen Problemstellungen zu generieren.

Aber das ist gar nicht so einfach. Wir stellen fest, dass Large Language Models generell dazu neigen, den Context aus den mitgelieferten Dokumenten zu ignorieren und stattdessen ihr gelerntes Wissen zu verwenden. Logischerweise liefert das auch in den meisten Fällen die richtige Antwort. Es handelt sich ja um gelernte Statistik. Wenn ich aber eine Frage für ein Produkt aus einer spezifischen Nische habe, dann ist die Antwort schlicht falsch. Oder wenn mein Produkt eine ganz spezielle und einfache Bedienlogik aufweist, dann wird das System auf diese einfachen Schritte nicht hinweisen, weil eben andere Systeme nicht so denken.

Beim Recherchieren haben wir da auch einen sehr spannenden Artikel gefunden (https://arxiv.org/pdf/2601.10108), der in einem schönen Video auch gut erklärt wird (https://youtu.be/az5WB-nGDk4?si=lBqOgHAYSVO0s2bo). Absolut empfehlenswert.

Wir haben für uns einige Wege gefunden, um verlässlichere Ergebnisse zu erzielen. Gemini selbst schlägt einige Formulierungs-Möglichkeiten im Prompt vor, um verlässlichere Ergebnisse zu erzielen:

  • Persona-Prompting, bei dem eine Persona vergeben wird, die überhaupt nicht über das Wissen verfügen kann.
  • Einbau einer „Self Correction“, also das Modell auffordern, am Ende nochmals seine Antwort auf die Verwendung internen Wissens zu prüfen.
  • Das Verwenden von abstrakten Platzhaltern, so dass der Zugriff auf dahinter liegende Themengebiete erschwert wird.

Dennoch konnten wir nicht immer verhindern, dass das Modell sein internes Wissen verwendet und Dinge in die Technik interpretiert, die am Markt vielleicht häufig sind, aber im vorliegenden Fall ja nicht zutreffen müssen.

Der für uns bisher beste Weg ist, das Modell immer zur Erläuterung seiner Schlussfolgerungen aufzufordern.

„Kommentiere in Deiner Beschreibung, welche Antworten tatsächlich durch das Dir bereitgestellte Wissen abgedeckt sind und welche Antworten von Dir nur vermutet werden. Berücksichtige dabei besonders [hier kommen dann die Themen, die im Anwendungsfall etwas spezifisch und nicht dem Üblichen entsprechen]“.

Der Hinweis auf die besonders zu beachtenden Themen erhöht die Wahrscheinlichkeit, dass tatsächlich alle „Vermutungen“ konkret angesprochen werden.

Einfach selber mal ausprobieren.


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert