Wenn Aufgaben komplex werden (mehrere Ziele, Constraints, Zwischenschritte, Tools, Risiko), scheitern „ein Satz reicht“-Prompts oft nicht an der Modellfähigkeit, sondern an fehlender Struktur. Eine gute Prompt-Struktur macht drei Dinge: (1) sie reduziert Interpretationsspielraum, (2) sie erzwingt prüfbare Zwischenartefakte, (3) sie trennt Denken/Ausführung/Validierung so, dass Fehler früh sichtbar werden.
Starte mit einem klaren Outcome (was soll am Ende vorliegen?) und direkt danach Nicht-Ziele (was explizit nicht). Das ist der schnellste Weg, um Scope-Creep zu verhindern.
Danach kommen Constraints (Format, Länge, Sprache, Quellenregeln, Zeitbudget) und Risiken (z. B. Sicherheit, Compliance, irreversible Aktionen). Bei agentischen Setups ist das oft wichtiger als „sei kreativ“.
Nutze Rollen nicht als Theater, sondern als Arbeitsmodus:
In einem einzelnen Prompt kannst du diese Modi als Abschnitte definieren (oder in einer Orchestrierung als eigene Schritte). Wichtig ist: Der Reviewer braucht Checkliste + Akzeptanzkriterien.
Für komplexe Aufgaben lohnt es sich, Zwischenartefakte anzufordern:
1. Annahmen + offene Fragen (max. 5)
2. Plan (nummeriert, mit Entscheidungspunkten)
3. Ausführung (konkret, keine Lücken)
4. Validierung (Tests/Checks)
5. Finaler Output im gewünschten Format
Das wirkt langsamer, ist aber in Summe schneller, weil du weniger Iterationen brauchst.
Ein praxistaugliches Template:
Für Examszenarien ist entscheidend, dass du zeigst: „Ich kann eine Aufgabe so formulieren, dass sie robust ausführbar und überprüfbar ist.“
1. Komplexität braucht Spezifikation: Outcome + Nicht-Ziele + Constraints reduzieren Fehlinterpretation.
2. Trenne Modi (Planen/Ausführen/Review) und gib dem Reviewer klare Akzeptanzkriterien.
3. Fordere Zwischenartefakte an (Plan, Annahmen, Validierung), um Fehler früh zu finden.
Du sollst ein Modell dazu bringen, einen „Production Readiness“-Check für ein neues Tool-Endpoint zu erstellen. Welche Prompt-Bausteine sind am wichtigsten, damit der Output prüfbar und nicht nur generisch wird?
Am wichtigsten sind ein klarer Outcome (konkrete Checkliste + Tests), explizite Constraints (Format, Tiefe, keine Floskeln), Akzeptanzkriterien (z. B. muss Timeouts/Retry/Logging/Security abdecken) und die Aufforderung zu Zwischenartefakten (Annahmen, Plan, Validierungsschritte). Dadurch wird der Output strukturiert, vollständig und auditierbar statt „nice text“.