Yay – we don’t need requirements engineers anymore!
We now have ChatGPT!
REConf 2024 München
Künstliche Intelligenz im Requirements Engineering: Hype vs. Realität
Die provokante Frage „Brauchen wir überhaupt noch Requirements Engineers, wenn wir ChatGPT haben?“ steht im Raum. Doch ein tieferer Blick in die Funktionsweise und die Grenzen der aktuellen Technologie zeigt: Die Rolle des Menschen im Requirements Engineering (RE) wird sich wandeln, aber keinesfalls verschwinden.
1. Die Technik verstehen: Statistik statt Verständnis
Large Language Models (LLMs) wie ChatGPT sind im Kern generative, vortrainierte Übersetzer, die auf statistischen Sprachmodellen basieren. Sie berechnen die Wahrscheinlichkeit von Wortsequenzen – sie „plaudern“, ohne den Inhalt im menschlichen Sinne wirklich zu verstehen.
Ein entscheidender Punkt für den Unternehmenseinsatz ist das Retrieval Augmented Generation (RAG): Ohne diese Technik können LLMs nur auf Allgemeinwissen zugreifen. Für spezifische Projektanforderungen ist eine projektspezifische KI-Umgebung notwendig, die Zugriff auf interne Datenbasen wie Confluence oder Jira hat.
2. Einsatzgebiete und Potenziale im RE
KI kann im Requirements Engineering bereits heute als wertvoller Sparringspartner und Assistent dienen:
- Inspiration: Unterstützung bei Stakeholder-Analysen und der Erstellung von Personas.
- Textoptimierung: Eloquente Formulierungen, Zusammenfassungen und Übersetzungen für verschiedene Zielgruppen.
- Visualisierung: Umwandlung von Text in Diagramm-Code (z. B. PlantUML).
- Automatisierung: Erste Ansätze zur Konsistenzprüfung, Testfallgenerierung oder automatischen Segmentierung von Dokumenten.
3. Die Grenzen der generativen KI
Trotz der beeindruckenden Fähigkeiten gibt es klare Grenzen, die den menschlichen Experten unverzichtbar machen:
- Kreativität und Innovation: KI baut auf altem Wissen auf und kann keine wirklich neuen Ideen hervorbringen.
- Logik und Mathematik: Rein generative Modelle scheitern oft an komplexen logischen Schlüssen oder mathematischen Berechnungen. Hier ist die symbolische KI (z. B. Constraint Problem Solving) deutlich überlegen, da sie auf formalen Regeln basiert.
- Haftung und Qualität: Fragen der Haftung und der Qualifizierung (z. B. nach ISO-Normen) sind bei KI-generierten Ergebnissen weiterhin ungeklärt.
Die Präsentation zieht ein klares Resümee: KI ist kein Allheilmittel. Während sie in RE-Tools wie Jira oder Confluence (Atlassian Intelligence) sowie spezialisierten Coaches für User Stories immer präsenter wird, bleibt die menschliche Raffinesse entscheidend. Der Mensch zeichnet sich dadurch aus, dass er aus Fehlern lernt und unerwartete Erkenntnisse gewinnt – eine Fähigkeit, die KI (noch) nicht reproduzieren kann.
Requirements Engineers werden also auch in Zukunft benötigt, um die Brücke zwischen vagen Stakeholder-Wünschen und präzisen Spezifikationen zu schlagen, die eine KI allein nicht verlässlich liefern kann.
KünstlicheIntelligenz(KI)im Requirements Engineering
Michael Albertin
Präsentation zum Herunterladen
- Grundlagen der Künstlichen Intelligenz (KI)
- Grenzen der Künstlichen Intelligenz (KI)
- Künstliche Intelligenz (KI) im Requirements Engineering
- Künstliche Intelligenz (KI) in RE-Tools
- Generative vs. symbolische KI
Copyright by Michael R. Albertin