Claude Cert Learning
Snacks als schnelle, lesbare Notes
Snack-20-Anti-Patterns-Overprompting-Ambiguity-Hidden-Assumptions

Snack 20 – Anti-Patterns: Overprompting, Ambiguity, Hidden Assumptions

Drei Prompt-Fehler tauchen in der Praxis und im Exam immer wieder auf. Sie haben gemeinsam, dass sie nicht sofort auffallen – das Modell antwortet trotzdem, aber falsch, inkonsistent oder unkontrollierbar. Wer sie kennt, kann Systeme entwerfen, die von Anfang an robuster sind.

Anti-Pattern 1: Overprompting

Overprompting bedeutet, dass du dem Modell so viele Anweisungen, Constraints und Beispiele gibst, dass es nicht mehr klar ist, was eigentlich Priorität hat. Das Ergebnis: Claude versucht alles gleichzeitig zu erfüllen, priorisiert implizit – und oft falsch.

Typisches Symptom: Der Output ändert sich je nach kleinen Umformulierungen drastisch, obwohl sich die Aufgabe nicht geändert hat. Oder Claude ignoriert systematisch einen Teil der Anweisungen, weil ein anderer Teil gewichtig klingt.

Fix: Weniger ist mehr. Priorisiere explizit: „Das wichtigste Kriterium ist X. Sekundär gilt Y." Wenn du mehr als fünf Constraints hast, überlege, welche davon wirklich nötig sind – und welche du besser durch Output-Validation absicherst als durch Prompt-Länge.

Anti-Pattern 2: Ambiguity

Ambiguität entsteht, wenn Begriffe im Prompt mehrere plausible Bedeutungen haben – und das Modell eine wählt, ohne es zu sagen. Du meinst „kurz" als „unter 100 Wörter", Claude meint „prägnant, aber gern 300 Wörter". Du meinst „auf Deutsch", Claude liefert Englisch mit deutschen Satzteilen.

Typisches Symptom: Outputs sind konsistent, aber konsistent falsch. Alle Antworten haben dieselbe ungewollte Eigenschaft, weil Claude dieselbe Fehlinterpretation stabil reproduziert.

Fix: Konkretisiere durch Beispiele oder Zahlen. Statt „kurze Zusammenfassung" schreibe „maximal 80 Wörter, ein Absatz". Statt „informeller Ton" schreibe „schreibe wie eine Slack-Nachricht an einen Kollegen, kein Formular, kein Betreff". Wenn du dir unsicher bist, ob ein Begriff eindeutig ist, teste ihn mit einem counterexample: Könnte das Modell etwas anderes darunter verstehen?

Anti-Pattern 3: Hidden Assumptions

Hidden Assumptions sind Voraussetzungen, die du als selbstverständlich ansiehst, dem Modell aber nie mitgeteilt hast. Klassiker: Du weißt, dass die Zielgruppe Entwickler sind – Claude nicht. Du weißt, dass der Output danach automatisch geparst wird – Claude nicht. Du weißt, dass bestimmte Wörter im Output-Kontext verboten sind – Claude nicht.

Typisches Symptom: Outputs sind inhaltlich korrekt, aber kontextuell unbrauchbar. Das System bricht erst nachgelagert, nicht beim ersten Test.

Fix: Führe beim Prompt-Design ein mentales Audit durch: „Was nehme ich als gegeben an, das ich nie explizit geschrieben habe?" Diese Annahmen gehören in den Prompt – entweder als Kontext-Satz am Anfang oder als Constraint. Besonders kritisch: Format-Annahmen (wer parst den Output?), Zielgruppen-Annahmen (für wen schreibst du?) und Scope-Annahmen (was gehört nicht in die Antwort?).

---

3 Takeaways

---

Mini-Testfrage

Ein Agent-Workflow liefert konsistent Zusammenfassungen, die zu lang sind – obwohl der Prompt „kurze Zusammenfassung" verlangt. Die Länge variiert nicht zwischen Runs. Welches Anti-Pattern liegt vor, und was ist der präziseste Fix?

---

Lösung

Das ist ein klassisches Ambiguity-Problem: „kurz" ist interpretierbar, und Claude hat eine stabile Interpretation gewählt, die von deiner abweicht. Der Fix ist nicht mehr Prompt-Text, sondern Konkretisierung: Ersetze „kurze Zusammenfassung" durch „maximal 80 Wörter, ein Absatz". Alternativ kann ein Evaluation-Prompt im Anschluss die Länge als Kriterium prüfen und einen Repair-Loop triggern.