50 lines
2.6 KiB
Typst
50 lines
2.6 KiB
Typst
#let __is_thesis = context { query(<__thesis_document>).len() > 0 }
|
|
#if __is_thesis == false [
|
|
#set cite(style: "apa")
|
|
#hide(bibliography("../literatur.bib", style: "apa"))
|
|
]
|
|
|
|
#heading(level: 1)[Diskussion (ca. 8 Seiten)]
|
|
|
|
#heading(level: 2)[Interpretation der Ergebnisse]
|
|
|
|
Die Ergebnisse zeigen einen klaren methodischen Lerneffekt ueber die drei Iterationen. Der Verlauf von V01 ueber V02 zu V03 ist nicht als Widerspruch, sondern als komplementaere Reifung zu interpretieren:
|
|
|
|
- V01 demonstriert, dass bereits mit einfacher Konfiguration formal strukturierte Requirements ableitbar sind.
|
|
- V02 zeigt, dass eine agentengestuetzte ISO-Konsolidierung methodisch sauber, aber fuer den Gesamtumfang zu rigide sein kann.
|
|
- V03 zeigt, dass die MCP-Erweiterung die funktionale Breite massiv erhoeht und Discovery-Luecken schliesst.
|
|
|
|
In Summe entsteht ein zweistufiges Zielbild fuer Reverse Requirements Engineering in Legacy-Projekten: zuerst *formal konsolidieren*, danach *gezielt in die Breite erweitern*.
|
|
|
|
#heading(level: 2)[Chancen und Grenzen]
|
|
|
|
Die wesentlichen Chancen des Ansatzes liegen in:
|
|
|
|
- hoher Skalierbarkeit bei grossen Legacy-Artefakten,
|
|
- schneller Sichtbarmachung undokumentierter Funktionalitaet,
|
|
- strukturierter Ueberfuehrung in reviewbare Requirements-Artefakte.
|
|
|
|
Die zentralen Grenzen bleiben:
|
|
|
|
- keine belastbare Vollstaendigkeit ohne Zusatzquellen (insbesondere Nutzungs- und Prozesssicht),
|
|
- Halluzinations- und Fehlinterpretationsrisiken ohne Beleg- und Reviewpflicht,
|
|
- hoher Konsolidierungsaufwand zwischen Discovery-Artefakten und abnahmefaehiger Spezifikation.
|
|
|
|
Damit bestaetigt die Fallstudie, dass LLMs Requirements Engineering nicht ersetzen, aber als beschleunigendes Analyseinstrument mit klaren Governance-Regeln substantiellen Mehrwert liefern.
|
|
|
|
#heading(level: 2)[Implikationen fuer Forschung und Praxis]
|
|
|
|
Fuer die Praxis folgt daraus ein umsetzbarer Einfuehrungspfad:
|
|
|
|
1. Iterative Versuchslogik statt einmaliger "Big-Bang"-Extraktion.
|
|
2. Trennung von Discovery- und Konsolidierungsphase als Standard.
|
|
3. Traceability als verpflichtendes Abnahmekriterium fuer LLM-Ergebnisse.
|
|
|
|
Fuer die Forschung ergeben sich drei Anschlussfragen:
|
|
|
|
1. Wie laesst sich die Triangulation aus Code-, Video- und Stakeholderdaten automatisiert zusammenfuehren?
|
|
2. Welche Metriken messen Qualitaet von Requirements-Artefakten robuster als reine Umfangszahlen?
|
|
3. Wie kann Human-in-the-loop-Validierung mit vertretbarem Aufwand skaliert werden?
|
|
|
|
Die vorliegende Arbeit liefert dafuer eine belastbare methodische Ausgangsbasis, zeigt aber zugleich, dass die letzte Meile zur fachlich finalen Spezifikation weiterhin ein kooperativer Mensch-KI-Prozess bleibt.
|