Von Post-its zu Spezifikationen – LLMs in API-Design-Workshops effektiv einsetzen
Event Storming und Domain Storytelling liefern wertvolles Domänenwissen – doch der Weg von bunten Haftnotizen zu einer präzisen API-Spezifikation ist oft lang und fehleranfällig. Wie können Large Language Models (LLMs) diesen Prozess beschleunigen und wo liegen die Grenzen?
In diesem Vortrag zeigen wir den praktischen Einsatz von LLMs zur Generierung von OpenAPI- und AsyncAPI-Spezifikationen direkt aus Workshop-Ergebnissen. Wir demonstrieren, welche Workshop-Artefakte sich am besten eignen, welche Prompt-Strategien funktionieren und wo menschliche Entscheidungen in der Architektur unverzichtbar bleiben.
Was funktioniert – und was nicht:
- AsyncAPI aus Event Storming: Generierung ereignisbasierter APIs mit Visual Glossary als Kontext
- OpenAPI aus Domain Storytelling: Von der Business-Story zur synchronen API-Spezifikation
- Vergleich der Ansätze: Event Storming vs. Domain Storytelling vs. API Product Canvas als Generierungsgrundlage
- Typische LLM-Fehler: Zu viele Endpunkte, fehlende Bounded-Context-Grenzen, falsche CQRS-Trennungen
- Qualitätssicherung: Wie man generierte APIs validieren und nacharbeiten kann.
Praktische Workshop-Integration:
- One-Shot-Prompting für schnelle Prototypen
- Kombination von Workshop-Artefakten (Event Storming + Visual Glossary + Beispiel-Specs)
- Der optimale Workflow: Wann API Product Canvas erstellen, wann direkt generieren
- Zeitersparnis vs. Nacharbeit: Realistische Erwartungen an LLM-Unterstützung
Anhand konkreter Beispiele aus einer Fahrradausleihe zeigen wir den gesamten Workflow von der Workshop-Moderation über die KI-gestützte Generierung bis zur finalen API-Spezifikation – inklusive der architektonischen Entscheidungen, die man trotz KI treffen muss.