Claude Cert Learning
Snacks als schnelle, lesbare Notes
Snack-07-Weekly-Review-Exam-Fragetypen-Woche-1

Snack 07 – Weekly Review + Exam-Fragetypen Woche 1

Wenn du in der Prüfung für Claude Foundations sicher punkten willst, reicht es nicht, einzelne Begriffe auswendig zu kennen. Woche 1 hat dir die Basiskonzepte gegeben: Agentic Architecture, Task-Decomposition, Planning-Patterns, Memory, Context-Budgeting und Single-vs-Multi-Agent-Entscheidungen. Der Review-Tag ist der Moment, in dem du diese Bausteine zu einem Entscheidungsmodell verbindest. Genau das wird im Exam getestet: nicht „Was ist ReAct?“, sondern „Welches Muster passt zu diesem Szenario – und warum?“

Ein typischer Fehler in Foundations-Prüfungen ist, dass man technisch korrekte, aber kontextfremde Antworten gibt. Beispiel: Multi-Agent klingt modern, aber wenn das Szenario nur eine lineare Transformation mit klarer Validierung braucht, ist Single-Agent fast immer robuster, günstiger und leichter auditierbar. Prüfungslogik bedeutet deshalb: erst Ziel und Constraints klären, dann Architektur wählen. Denk in dieser Reihenfolge: (1) Risiko und Fehlertoleranz, (2) Tool-Abhängigkeiten, (3) Kontextgröße, (4) Latenz/Kosten, (5) Governance-Bedarf.

Bei Fragetypen in Woche 1 siehst du oft vier Muster. Erstens Definition+Abgrenzung: z. B. Agentic System vs. klassischer Chatbot. Hier zählt, dass du Autonomiegrad, Tool-Nutzung und mehrstufige Planung nennen kannst. Zweitens Architekturentscheidung: „Welche Option ist best?“ mit Distraktoren, die auf den ersten Blick plausibel sind. Hier gewinnst du mit Trade-off-Denken statt Buzzwords. Drittens Failure-Analyse: ein Agent halluziniert, verliert Kontext oder trifft inkonsistente Entscheidungen. Gesucht ist meist der strukturelle Hebel (besseres Context-Budgeting, klare Task-Splits, validierte Zwischenoutputs), nicht nur „mehr Prompting“. Viertens Sequenzfragen: Welche Pipeline-Reihenfolge ist sinnvoll? Typisch korrekt ist ein Flow wie Triage → Plan/Decompose → Execute → Validate → Summarize.

Für deine Prüfungsvorbereitung ist ein schneller „Decision Loop“ hilfreich: Lies ein Szenario und markiere sofort drei Dinge: Hauptziel, harte Constraints, primäres Risiko. Dann mappe auf Woche-1-Konzepte: Braucht es Planungsschritte (ReAct/Hybrid) oder reicht linear? Muss Memory persistieren oder nur session-lokal sein? Ist Context knapp, sodass du Retrieval/Chunking brauchst? Bringt Multi-Agent echten Nutzen oder nur zusätzliche Failure-Surface? Wenn du diese Fragen diszipliniert stellst, reduzierst du Fehlentscheidungen drastisch.

Achte außerdem auf sprachliche Hinweise in Prüfungsfragen. Wörter wie „auditierbar“, „deterministisch“, „compliance“, „kostensensitiv“, „low latency“ sind keine Deko, sondern Steuerbefehle für die richtige Antwort. „Auditierbar“ spricht oft für einfachere, nachvollziehbare Flows. „Kostensensitiv“ drückt gegen unnötige Multi-Agent-Setups. „Unklare Nutzerziele“ spricht für ein Triage-/Clarification-Pattern vor der eigentlichen Ausführung.

Kurz: Woche 1 ist bestanden, wenn du nicht nur erklären kannst, was ein Konzept ist, sondern wann es die beste Wahl ist. Exam-Fragen belohnen strukturierte Entscheidungen unter Constraints. Wenn du bei jeder Antwort begründen kannst, welchen Trade-off du akzeptierst, bist du auf Foundations-Niveau.

3 Takeaways

Mini-Testfrage

Ein Team will ein internes Support-System bauen. Anforderungen: niedrige Kosten, schnelle Antworten, klare Nachvollziehbarkeit für Audits. Das System muss vor allem Standardfälle aus einer stabilen Wissensbasis beantworten. Welche Architekturentscheidung ist am sinnvollsten?

A) Multi-Agent-Setup mit separatem Planner-, Executor- und Critic-Agent für alle Anfragen

B) Single-Agent-Flow mit Retrieval, klaren Tool-Grenzen und explizitem Validierungsschritt

C) Reiner Chatbot ohne Tools, um Halluzinationen durch „kreative Freiheit“ zu reduzieren

D) Vollautonomer Agent mit persistentem Langzeit-Memory für jede Session

Lösung

Am besten passt B. Die Anforderungen priorisieren Kosten, Latenz und Auditierbarkeit, was für einen schlanken, kontrollierten Single-Agent-Flow spricht. Retrieval plus Validierung reduziert Halluzinationen bei Standardfällen, ohne die Komplexität und Failure-Surface eines Multi-Agent-Setups.