#let __is_thesis = context { query(<__thesis_document>).len() > 0 } #if __is_thesis == false [ #set cite(style: "apa") #hide(bibliography("../literatur.bib", style: "apa")) ] #heading(level: 1)[Diskussion (ca. 8 Seiten)] #heading(level: 2)[Interpretation der Ergebnisse] Die Ergebnisse zeigen einen klaren methodischen Lerneffekt ueber die drei Iterationen. Der Verlauf von V01 ueber V02 zu V03 ist nicht als Widerspruch, sondern als komplementaere Reifung zu interpretieren: - V01 demonstriert, dass bereits mit einfacher Konfiguration formal strukturierte Requirements ableitbar sind. - V02 zeigt, dass eine agentengestuetzte ISO-Konsolidierung methodisch sauber, aber fuer den Gesamtumfang zu rigide sein kann. - V03 zeigt, dass die MCP-Erweiterung die funktionale Breite massiv erhoeht und Discovery-Luecken schliesst. In Summe entsteht ein zweistufiges Zielbild fuer Reverse Requirements Engineering in Legacy-Projekten: zuerst *formal konsolidieren*, danach *gezielt in die Breite erweitern*. #heading(level: 2)[Chancen und Grenzen] Die wesentlichen Chancen des Ansatzes liegen in: - hoher Skalierbarkeit bei grossen Legacy-Artefakten, - schneller Sichtbarmachung undokumentierter Funktionalitaet, - strukturierter Ueberfuehrung in reviewbare Requirements-Artefakte. Die zentralen Grenzen bleiben: - keine belastbare Vollstaendigkeit ohne Zusatzquellen (insbesondere Nutzungs- und Prozesssicht), - Halluzinations- und Fehlinterpretationsrisiken ohne Beleg- und Reviewpflicht, - hoher Konsolidierungsaufwand zwischen Discovery-Artefakten und abnahmefaehiger Spezifikation. Damit bestaetigt die Fallstudie, dass LLMs Requirements Engineering nicht ersetzen, aber als beschleunigendes Analyseinstrument mit klaren Governance-Regeln substantiellen Mehrwert liefern. #heading(level: 2)[Implikationen fuer Forschung und Praxis] Fuer die Praxis folgt daraus ein umsetzbarer Einfuehrungspfad: 1. Iterative Versuchslogik statt einmaliger "Big-Bang"-Extraktion. 2. Trennung von Discovery- und Konsolidierungsphase als Standard. 3. Traceability als verpflichtendes Abnahmekriterium fuer LLM-Ergebnisse. Fuer die Forschung ergeben sich drei Anschlussfragen: 1. Wie laesst sich die Triangulation aus Code-, Video- und Stakeholderdaten automatisiert zusammenfuehren? 2. Welche Metriken messen Qualitaet von Requirements-Artefakten robuster als reine Umfangszahlen? 3. Wie kann Human-in-the-loop-Validierung mit vertretbarem Aufwand skaliert werden? Die vorliegende Arbeit liefert dafuer eine belastbare methodische Ausgangsbasis, zeigt aber zugleich, dass die letzte Meile zur fachlich finalen Spezifikation weiterhin ein kooperativer Mensch-KI-Prozess bleibt.