Files
Masterarbeit/Quellen.md
2026-02-17 08:27:56 +01:00

221 lines
28 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
# Quellen
Die Quellen sind nach Relevanz zu den Kapiteln gruppiert. Innerhalb der Kapitel stehen Standards und peer-reviewte Publikationen vor Webquellen.
## Kapitelzuordnung (Kurzliste)
### Kapitel 1 Einleitung
- Bisbal et al. (1999): Legacy-Systeme als Problemkontext.
- Hemmat et al. (2025), Fan et al. (2023): Motivation und Forschungslücke zu LLMs im RE/SE.
### Kapitel 2 Theoretische Grundlagen
- ISO/IEC/IEEE 29148:2018; IEEE 830-1998; ISO/IEC 25010:2011; Pohl (2010); Glinz (2007, 2008).
- Gotel und Finkelstein (1994); Ramesh und Jarke (2001): Traceability.
- Chikofsky und Cross (1990); Storey (2005); Yu et al. (2005); Tahvildari et al. (2001): Reverse Engineering/RRE.
- Fan et al. (2023); Salem et al. (2024); arXiv 2308.10620; arXiv 2312.15223: LLMs im SE.
- Ji et al. (2023); Bender et al. (2021): Verlässlichkeit, Risiken, Governance.
- Lewis et al. (2020); Wei et al. (2022): Kontextmanagement und Prompting.
- Bisbal et al. (1997); Wu et al. (1997); Sneed (1995); Kratzke und Quint (2017); Pahl und Jamshidi (2016); 10.5220/0004979900260037: Legacy-Modernisierung, Cloud/Microservices.
### Kapitel 3 Fallstudie c-entron GmbH
- Bisbal et al. (1999); Sneed (1995); Bisbal et al. (1997): Einordnung der Legacy-Charakteristika und Migrationsrisiken.
- Kratzke und Quint (2017); Pahl und Jamshidi (2016): Zielarchitektur und Modernisierungsdruck.
### Kapitel 4 Konzeption und methodisches Vorgehen
- ISO/IEC/IEEE 29148:2018; IEEE 830-1998; Pohl (2010): Anforderungen an Artefakte, Validierung und Prozessgestaltung.
- Gotel und Finkelstein (1994); Ramesh und Jarke (2001): Traceability als methodische Leitplanke.
- Lewis et al. (2020): Retrieval als Kontextstrategie.
- Fan et al. (2023); Hemmat et al. (2025): Open Problems, Prozesskontrollen und Forschungsrahmen.
### Kapitel 5 Prototypische Umsetzung (inkl. Governance, Datenschutz, IP)
- OpenAI (2023); Rozière et al. (2023): Modellcharakteristika, Grenzen und Einsatzannahmen.
- Ji et al. (2023); Bender et al. (2021): Risiken, Governance und Absicherungsbedarf.
- 10.5220/0004979900260037: Security-Aspekte in Legacy-to-Cloud-Migrationen.
### Kapitel 6 Evaluation
- ISO/IEC/IEEE 29148:2018; Gotel und Finkelstein (1994): Qualitäts- und Traceability-Kriterien.
- Hemmat et al. (2025); Marques et al. (2024); Fan et al. (2023): Evaluationsdimensionen und typische Limitationen.
- Fantechi et al. (2023); Ruan et al. (2023): empirische Teilstudien als Referenzpunkte.
### Kapitel 7 Diskussion / Kapitel 8 Fazit
- Ji et al. (2023); Bender et al. (2021); Fan et al. (2023): Einordnung von Grenzen, Risiken und Implikationen.
## Kapitel 2 Theoretische Grundlagen
### 2.1 Requirements Engineering und Reverse Requirements Engineering
- ISO/IEC/IEEE (2018): *ISO/IEC/IEEE 29148:2018 Systems and software engineering — Life cycle processes — Requirements engineering*. https://www.iso.org/standard/72089.html
Synopsis: Die Norm definiert Begriffe, Inhalte und Qualitätsanforderungen für Requirements sowie Artefakte wie SRS und SRS-ähnliche Spezifikationen. Für diese Arbeit ist sie ein Referenzpunkt, um Kriterien wie Eindeutigkeit, Nachvollziehbarkeit und Prüfbarkeit konsistent zu operationalisieren.
- IEEE (1998): *IEEE Std 830-1998 Recommended Practice for Software Requirements Specifications*. https://standards.ieee.org/standard/830-1998.html
Synopsis: Der Standard beschreibt Struktur und Mindestinhalte einer Software Requirements Specification. Er ist vor allem als historisch verbreiteter Rahmen relevant, um Unterschiede zu neueren Normen (z. B. ISO/IEC/IEEE 29148) einzuordnen.
- ISO/IEC (2011): *ISO/IEC 25010:2011 Systems and software engineering — Systems and software Quality Requirements and Evaluation (SQuaRE) — System and software quality models*. https://iso25000.com/index.php/en/iso-25000-standards/iso-25010
Synopsis: Die Norm liefert ein Qualitätsmodell mit strukturierten Qualitätsmerkmalen (u. a. Sicherheit, Zuverlässigkeit, Wartbarkeit, Performance-Effizienz). Für diese Arbeit dient es als Raster, um aus Code und Betriebskontext abgeleitete Qualitätsanforderungen systematisch zu ordnen.
- Pohl, K. (2010): *Requirements Engineering: Fundamentals, Principles, and Techniques*. Springer. https://doi.org/10.1007/978-3-642-12578-2
Synopsis: Das Lehrbuch beschreibt RE als durchgängige Disziplin von Elicitation bis Management und behandelt insbesondere Validierung, Konsistenz und Änderungssteuerung. Für diese Arbeit ist es eine Referenz, um Reverse Requirements Engineering als Sonderfall von RE mit erhöhtem Validierungsbedarf zu begründen.
- Lawrence, B.; Wiegers, K.; Ebert, C. (2001): *The top risk of requirements engineering*. IEEE Software. https://doi.org/10.1109/52.965804
Synopsis: Der Artikel identifiziert zentrale Risikofaktoren im Requirements Engineering (u. a. Unklarheit, Instabilität, unzureichende Stakeholder-Abstimmung) und diskutiert Gegenmaßnahmen. Für diese Arbeit ist dies relevant, um die Risiken von KI-extrahierten Requirements nicht nur qualitativ, sondern risikoorientiert zu betrachten.
- Kotonya, G.; Sommerville, I. (1996): *Requirements engineering with viewpoints*. Software Engineering Journal. https://doi.org/10.1049/sej.1996.0002
Synopsis: Der Beitrag zeigt, wie unterschiedliche Stakeholder-Perspektiven als „Viewpoints“ modelliert und konsolidiert werden können. Die Arbeit liefert damit ein methodisches Argument für explizite Konfliktbehandlung und Konsistenzprüfung bei Requirements.
- Glinz, M. (2007): *On Non-Functional Requirements*. 15th IEEE International Requirements Engineering Conference (RE 2007). https://doi.org/10.1109/re.2007.45
Synopsis: Der Beitrag diskutiert, warum die Trennung in funktionale und nicht-funktionale Anforderungen in der Praxis häufig unscharf ist und schlägt eine präzisere Begriffsverwendung vor. Für diese Arbeit ist dies relevant, um aus Code abgeleitete Anforderungen nicht vorschnell als „funktional“ zu etikettieren.
- Glinz, M. (2008): *A Risk-Based, Value-Oriented Approach to Quality Requirements*. IEEE Software. https://doi.org/10.1109/ms.2008.31
Synopsis: Der Artikel argumentiert, dass Qualitätsanforderungen (z. B. Performance, Sicherheit) risikobasiert und wertorientiert priorisiert werden sollten. Dies unterstützt die spätere Bewertung, welche aus einer Legacy-Codebasis abgeleiteten Quality Requirements besonders migrationskritisch sind.
- Gotel, O.; Finkelstein, A. (1994): *An analysis of the requirements traceability problem*. International Conference on Requirements Engineering (ICRE). https://doi.org/10.1109/icre.1994.292398
Synopsis: Der Beitrag prägt den Traceability-Begriff und analysiert Ursachen, warum Nachverfolgbarkeit in Projekten scheitert (u. a. heterogene Artefakte, fehlende Disziplin). Er ist zentral, um Traceability als Qualitätskriterium für KI-extrahierte Requirements zu begründen.
- Ramesh, B.; Jarke, M. (2001): *Toward reference models for requirements traceability*. IEEE Transactions on Software Engineering. https://doi.org/10.1109/32.895989
Synopsis: Der Artikel liefert Referenzmodelle, um Traceability-Typen und -Beziehungen systematisch zu beschreiben (z. B. rationale, evolutionäre Bezüge). Für diese Arbeit ist dies eine Grundlage, Traceability nicht nur als „Linkliste“, sondern als strukturierte Relation zu verstehen.
- Chikofsky, E. J.; Cross, J. H. (1990): *Reverse engineering and design recovery: a taxonomy*. IEEE Software. https://doi.org/10.1109/52.43044
Synopsis: Der Beitrag etabliert eine bis heute häufig zitierte Taxonomie zu Reverse Engineering, Reengineering und Design Recovery. Er liefert die begriffliche Basis, um Reverse Requirements Engineering als Teilmenge von Reverse-Engineering-Aktivitäten sauber abzugrenzen.
- Storey, M.-A. (2005): *Theories, methods and tools in program comprehension: past, present and future*. International Workshop on Program Comprehension (IWPC). https://doi.org/10.1109/wpc.2005.38
Synopsis: Der Beitrag ordnet Program Comprehension als Forschungsfeld ein und diskutiert typische Methoden (z. B. statische Analyse, Visualisierung, Navigation). Er ist relevant, weil Requirements-Extraktion aus Code immer auf Verfahren der Programmverständnisforschung aufsetzt.
- Hemmat, A.; Sharbaf, M.; Kolahdouz-Rahimi, S.; Lano, K.; Tehrani, S. Y. (2025): *Research directions for using LLM in software requirement engineering: a systematic review*. Frontiers in Computer Science. https://doi.org/10.3389/fcomp.2025.1519437
Synopsis: Die systematische Übersicht fasst Forschungsrichtungen zum Einsatz von LLMs im Requirements Engineering zusammen und diskutiert offene Probleme (u. a. Qualitätssicherung, Bias, Nachvollziehbarkeit). Die Arbeit dient als Brücke zwischen klassischem RE und den in Kapitel 2.2 diskutierten LLM-Methoden.
- Yu, Y.; Mylopoulos, J.; Wang, Y.; Liaskos, S.; Lapouchnian, A.; Zou, Y.; Littou, M.; Leite, J. C. S. P. (2005): *RETR: Reverse Engineering to Requirements*. Working Conference on Reverse Engineering (WCRE). https://doi.org/10.1109/wcre.2005.27
Synopsis: Der Beitrag beschreibt einen Ansatz, Requirements aus bestehenden Systemartefakten rückzugewinnen und strukturiert zu dokumentieren. Für diese Arbeit ist er als frühes Referenzmodell relevant, auch wenn heutige LLM-basierte Verfahren andere Automatisierungsgrade erlauben.
- Tahvildari, L.; Kontogiannis, K.; Mylopoulos, J. (2001): *Requirements-driven software re-engineering framework*. Working Conference on Reverse Engineering (WCRE). https://doi.org/10.1109/wcre.2001.957811
Synopsis: Der Beitrag zeigt, wie Requirements als Leitplanken für Reengineering-Entscheidungen eingesetzt werden können und verbindet technische Analyse mit zielgerichteter Umgestaltung. Für diese Arbeit ist dies eine theoretische Grundlage, um Requirements-Extraktion als Steuerungsinstrument der Modernisierung zu motivieren.
- Pujiharto, E. W.; Tikasni, E.; Lewu, R.; Sudirman, S.; Utami, E. (2024): *Systematic Literature Review on Software Requirement Engineering in 5.0 Industry: Current Practices and Future Challenges*. International Journal of Advanced Science Computing and Engineering. https://doi.org/10.62527/ijasce.6.3.152
Synopsis: Die SLR identifiziert Trends und Herausforderungen des Requirements Engineering im Kontext aktueller Industrieentwicklungen (u. a. IoT, KI, Interoperabilität). Sie ist als breiter Überblick nützlich, enthält jedoch gemischte Quellenqualität und benötigt eine kritische Einordnung.
### 2.2 Large Language Models im Software Engineering
- Bishop, C. M. (2006): *Pattern Recognition and Machine Learning*. Springer. https://link.springer.com/book/9780387310732
Synopsis: Das Lehrbuch liefert eine breite, formale Einführung in Machine Learning (u. a. überwachte/ unüberwachte Verfahren, probabilistische Modellierung, Optimierung). Für diese Arbeit dient es als begriffliche Grundlage, um LLMs als Teilmenge datengetriebener Lernverfahren sauber einzuordnen.
- Goodfellow, I.; Bengio, Y.; Courville, A. (2016): *Deep Learning*. MIT Press. https://www.deeplearningbook.org/
Synopsis: Das Werk beschreibt neuronale Netze, Trainingsprinzipien und typische Fehlerquellen (z. B. Overfitting, Optimierungsprobleme) systematisch. Für diese Arbeit ist es eine Referenz, um Deep Learning als methodische Basis von LLMs knapp und korrekt zu erklären.
- LeCun, Y.; Bengio, Y.; Hinton, G. (2015): *Deep learning*. Nature. https://doi.org/10.1038/nature14539
Synopsis: Der Übersichtsartikel ordnet Deep Learning historisch und methodisch ein und beschreibt, warum representation learning viele klassische Feature-Engineering-Ansätze ersetzt. Für diese Arbeit ist dies eine zitierfähige Grundlage, um die Einbettung von LLMs in den allgemeinen KI-/ML-Kontext zu begründen.
- Hastie, T.; Tibshirani, R.; Friedman, J. (2009): *The Elements of Statistical Learning* (2nd ed.). Springer. https://hastie.su.domains/ElemStatLearn/
Synopsis: Das Lehrbuch beschreibt klassische statistische Lernverfahren (u. a. lineare Modelle, SVMs, Bäume, Ensembles) und deren praktische Trade-offs. Für diese Arbeit ist es nützlich, um LLMs und neuronale Netze gegenüber etablierten ML-Methoden sauber abzugrenzen (Datenanforderungen, Interpretierbarkeit, Fehlerarten).
- Cortes, C.; Vapnik, V. (1995): *Support-vector networks*. Machine Learning. https://doi.org/10.1007/BF00994018
Synopsis: Der Beitrag führt SVMs als margin-basiertes Lernverfahren ein und begründet zentrale Eigenschaften wie Generalisierung über Maximierung der Margin. Für diese Arbeit ist die Quelle relevant, um eine wichtige klassische ML-Familie zu referenzieren, die sich konzeptionell klar von generativen LLMs unterscheidet.
- Breiman, L. (2001): *Random Forests*. Machine Learning. https://doi.org/10.1023/A:1010933404324
Synopsis: Random Forests kombinieren viele Entscheidungsbäume über Bagging und zufällige Feature-Auswahl, was typischerweise robuste Performance auf tabellarischen Daten liefert. Für diese Arbeit dient dies als Referenz für interpretierbarkeitsnahe, nicht-neuronale Ensembles.
- Friedman, J. H. (2001): *Greedy function approximation: A gradient boosting machine*. The Annals of Statistics. https://doi.org/10.1214/AOS/1013203451
Synopsis: Der Beitrag formuliert Gradient Boosting als additive Modellbildung über schwache Lerner und liefert eine theoretische Grundlage für sehr leistungsfähige Ensembles. Für diese Arbeit ist dies relevant, um die Abgrenzung „klassische ML-Modelle vs. Deep Learning/LLMs“ nicht nur qualitativ, sondern referenzierbar darzustellen.
- Fan, A.; Gokkaya, B.; Harman, M.; Lyubarskiy, M. (2023): *Large Language Models for Software Engineering: Survey and Open Problems*. ICSE-FoSE. https://doi.org/10.1109/icse-fose59343.2023.00008
Synopsis: Der Beitrag strukturiert Einsatzfelder von LLMs im Software Engineering und benennt offene Forschungsprobleme, insbesondere zur Verlässlichkeit und Evaluationsmethodik. Für diese Arbeit sind die diskutierten Grenzen (Halluzinationen, Steuerbarkeit, Reproduzierbarkeit) direkt relevant.
- Salem, N.; Hudaib, A.; Al-Tarawneh, K.; Salem, H. (2024): *A survey on the application of large language models in software engineering*. Computer Research and Modeling. https://doi.org/10.20537/2076-7633-2024-16-7-1715-1726
Synopsis: Die Übersicht ordnet LLM-Anwendungen nach Aufgabenklassen (z. B. Code-Generierung, Zusammenfassung, Testen) und fasst typische Evaluationsstrategien zusammen. Sie ist hilfreich, um LLM-Fähigkeiten für Codeanalyse von reinen Textaufgaben abzugrenzen.
- Ji, Z.; Lee, N.; Frieske, R.; Yu, T.; et al. (2023): *Survey of Hallucination in Natural Language Generation*. ACM Computing Surveys. https://doi.org/10.1145/3571730
Synopsis: Die Arbeit bietet Definitionen, Taxonomien sowie Detektions- und Mitigationsansätze für Halluzinationen in generativen Modellen. Für den Einsatz im Requirements Engineering ist dies zentral, weil fehlerhafte, aber plausibel klingende Requirements erhebliche Migrationsrisiken verursachen.
- Bender, E. M.; Gebru, T.; McMillan-Major, A.; Shmitchell, S. (2021): *On the Dangers of Stochastic Parrots*. FAccT. https://doi.org/10.1145/3442188.3445922
Synopsis: Der Beitrag diskutiert Risiken großer Sprachmodelle (u. a. Datenbias, Umweltkosten, fehlende Transparenz) und fordert stärkere Governance. Für diese Arbeit ist dies eine theoretische Grundlage, um LLM-Einsatz nicht nur technisch, sondern auch organisatorisch und ethisch abzusichern.
- Marques, N.; Silva, R. R.; Bernardino, J. (2024): *Using ChatGPT in Software Requirements Engineering: A Comprehensive Review*. Future Internet. https://doi.org/10.3390/fi16060180
Synopsis: Die Reviewarbeit bündelt empirische Erkenntnisse zum ChatGPT-Einsatz entlang typischer RE-Aktivitäten (Elicitation, Analyse, Spezifikation, Validierung). Sie liefert eine erste Evidenzbasis, welche Aufgaben gut funktionieren und wo methodische Lücken bestehen.
- Fantechi, A.; Gnesi, S.; Passaro, L.; Semini, L. (2023): *Inconsistency Detection in Natural Language Requirements using ChatGPT: a Preliminary Evaluation*. IEEE RE. https://doi.org/10.1109/re57278.2023.00045
Synopsis: Der Beitrag untersucht, inwieweit ChatGPT Inkonsistenzen in naturalsprachlichen Anforderungen erkennen kann. Er ist relevant, weil er konkrete Qualitätschecks als „menschlicher Kontrollpunkt“ für KI-generierte Requirements nahelegt.
- Ruan, K.; Chen, X.; Jin, Z. (2023): *Requirements Modeling Aided by ChatGPT: An Experience in Embedded Systems*. IEEE REW. https://doi.org/10.1109/rew57809.2023.00035
Synopsis: Die Arbeit berichtet über den Einsatz von ChatGPT zur Unterstützung von Requirements-Modellierung und reflektiert praktische Grenzen (z. B. Domänenwissen, Nachvollziehbarkeit). Für diese Arbeit ist sie als Erfahrungsbericht wichtig, um LLM-Unterstützung als assistiven, nicht autonomen Prozess zu rahmen.
- Zhao, L.; Alhoshan, W.; Ferrari, A.; Letsholo, K. J. (2021): *Natural Language Processing for Requirements Engineering*. ACM Computing Surveys. https://doi.org/10.1145/3444689
Synopsis: Der Survey ordnet klassische NLP-Verfahren im Requirements Engineering (z. B. Extraktion, Klassifikation, Qualitätsprüfung, Traceability) und diskutiert wiederkehrende Herausforderungen wie Mehrdeutigkeit und fehlende Domänenmodelle. Für diese Arbeit liefert er den methodischen Kontext, in den LLM-basierte Verfahren als nächste Evolutionsstufe eingeordnet werden.
- Borg, M.; Runeson, P.; Ardö, A. (2013): *Recovering from a decade: a systematic mapping of information retrieval approaches to software traceability*. Empirical Software Engineering. https://doi.org/10.1007/s10664-013-9255-y
Synopsis: Die Mapping Study systematisiert IR-basierte Verfahren zur Traceability-Link-Recovery und diskutiert typische Datensätze und Evaluationsmetriken. Für diese Arbeit ist sie relevant, weil Traceability als Qualitätskriterium für KI-extrahierte Requirements an etablierte Bewertungsmuster anknüpfen kann.
- Marczak-Czajka, A.; Cleland-Huang, J. (2023): *Using ChatGPT to Generate Human-Value User Stories as Inspirational Triggers*. IEEE REW. https://doi.org/10.1109/rew57809.2023.00016
Synopsis: Die Arbeit untersucht ChatGPT als Unterstützung für wertorientierte User Stories und positioniert LLMs als Inspirations- und Elicitation-Werkzeug. Für diese Arbeit ist dies relevant, weil Stakeholder-Perspektiven im Code nicht vollständig abbildbar sind und ergänzende Elicitation-Schritte methodisch begründet werden müssen.
- Norheim, J. J.; Rebentisch, E. (2024): *Structuring Natural Language Requirements with Large Language Models*. IEEE REW. https://doi.org/10.1109/rew61692.2024.00013
Synopsis: Der Beitrag betrachtet, wie LLMs natürliche Anforderungen in strukturiertere Formen überführen können und diskutiert dabei Grenzen der Robustheit und Nachvollziehbarkeit. Für diese Arbeit ist dies ein direkter Anknüpfungspunkt, weil strukturierte, überprüfbare Requirements das Zielartefakt der Extraktion sind.
- Luitel, D.; Hassani, S.; Sabetzadeh, M. (2024): *Improving requirements completeness: automated assistance through large language models*. Requirements Engineering. https://doi.org/10.1007/s00766-024-00416-3
Synopsis: Die Arbeit untersucht LLM-gestützte Assistenz zur Verbesserung der Vollständigkeit von Requirements und diskutiert, welche Arten von Lücken sich automatisiert identifizieren lassen. Für diese Arbeit ist dies relevant, weil Vollständigkeit ein zentrales Evaluationskriterium für Reverse Requirements Engineering ist.
- Hassani, S. (2024): *Enhancing Legal Compliance and Regulation Analysis with Large Language Models*. IEEE RE. https://doi.org/10.1109/re59067.2024.00065
Synopsis: Der Beitrag adressiert den Einsatz von LLMs zur Analyse rechtlicher Vorgaben und Compliance-Anforderungen. Für diese Arbeit ist dies relevant, weil Datenschutz- und Compliance-Anforderungen im Migrationskontext häufig migrationskritisch sind und nicht vollständig aus Code ableitbar sind.
- Nouri, A.; Cabrero-Daniel, B.; Törner, F.; Sivencrona, H. (2024): *Engineering Safety Requirements for Autonomous Driving with Large Language Models*. IEEE RE. https://doi.org/10.1109/re59067.2024.00029
Synopsis: Die Arbeit betrachtet LLM-Unterstützung bei Safety Requirements und verdeutlicht die Notwendigkeit strenger Validierung und Belegbarkeit in sicherheitskritischen Domänen. Für diese Arbeit ist dies ein Referenzpunkt, um Qualitäts- und Governance-Anforderungen für KI-gestützte Requirements abzuleiten.
- Okamoto, R.; Kusumoto, S. (2025): *Towards the Automatic Restructuring of Software Requirements Specifications to Conform to Standards Using Large Language Models*. IEEE RE. https://doi.org/10.1109/re63999.2025.00056
Synopsis: Der Beitrag untersucht, wie LLMs Requirements-Spezifikationen in Richtung standardkonformer Strukturen umformen können. Für diese Arbeit ist dies relevant, weil standardnahe Artefakte (z. B. nach ISO/IEC/IEEE 29148) die Vergleichbarkeit und Governance in der Transition unterstützen.
- arXiv (2024): *Large Language Models for Software Engineering: A Systematic Literature Review*. https://arxiv.org/abs/2308.10620
Synopsis: Die SLR bietet eine breite Kartierung von LLM4SE-Publikationen (Modelle, Aufgaben, Methoden, Limitationen) und ist als Orientierungsrahmen nützlich. Aufgrund der hohen Dynamik des Feldes ist eine Aktualisierung mit neueren Arbeiten meist erforderlich.
- arXiv (2024): *A Survey on Large Language Models for Software Engineering*. https://arxiv.org/abs/2312.15223
Synopsis: Die Surveyarbeit strukturiert LLM-Anwendungen im Software Engineering und diskutiert typische Evaluationsfallen (z. B. Leckage, unklare Benchmarks). Für diese Arbeit liefert sie Begriffe und Kategorien, um Anforderungen an LLM-gestützte Codeanalyse systematisch zu formulieren.
- arXiv (2017): Vaswani, A.; et al.: *Attention Is All You Need*. https://arxiv.org/abs/1706.03762
Synopsis: Der Beitrag führt das Transformer-Architekturprinzip ein, das die Grundlage vieler moderner LLMs bildet. Für diese Arbeit genügt das Modellverständnis auf Konzeptniveau (Self-Attention, Kontextrepräsentation), um Grenzen wie Kontextfenster und Tokenisierung zu erklären.
- arXiv (2020): Lewis, P.; Perez, E.; Piktus, A.; Petroni, F.; et al.: *Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks*. https://arxiv.org/abs/2005.11401
Synopsis: Der Beitrag beschreibt RAG als Kombination aus Retrieval und generativer Modellierung, um Ausgaben stärker an externe Belege zu binden. Für diese Arbeit ist das Prinzip relevant, weil Requirements-Extraktion aus großen Repositories ohne gezielte Kontextauswahl nicht skalierbar ist.
- arXiv (2022): Wei, J.; Wang, X.; Schuurmans, D.; Bosma, M.; Ichter, B.; Xia, F.; Chi, E.; Le, Q.; Zhou, D. (2022): *Chain-of-Thought Prompting Elicits Reasoning in Large Language Models*. https://arxiv.org/abs/2201.11903
Synopsis: Der Beitrag zeigt, dass explizite Zwischenschritte im Prompt die Leistung auf Aufgaben mit mehrstufigem Schlussfolgern verbessern können. Für diese Arbeit ist dies relevant, um Prompttechniken einzuordnen, gleichzeitig aber Begründungstexte konsequent an Artefaktbelege zu koppeln.
- arXiv (2023): Rozière, B.; et al.: *Code Llama: Open Foundation Models for Code*. https://arxiv.org/abs/2308.12950
Synopsis: Der Technical Report beschreibt ein auf Code spezialisiertes Modell und diskutiert Training, Einsatzszenarien und Evaluationsbenchmarks. Für diese Arbeit ist dies relevant, um Unterschiede zwischen allgemeinen und code-domänenspezifischen LLMs zu begründen.
- arXiv (2023): OpenAI: *GPT-4 Technical Report*. https://arxiv.org/abs/2303.08774
Synopsis: Der Bericht beschreibt GPT-4 auf Systemebene (u. a. Fähigkeiten, Sicherheitsarbeit, Evaluationsansätze), ohne vollständige Trainingsdetails offenzulegen. Für diese Arbeit ist er als Primärquelle geeignet, um Capability-Claims und Grenzen nicht nur aus Sekundärliteratur abzuleiten.
### 2.3 Legacy-Modernisierung und Stand der Forschung
- Bisbal, J.; Lawless, D.; Wu, B.; Grimson, J. (1999): *Legacy information systems: issues and directions*. IEEE Software. https://doi.org/10.1109/52.795108
Synopsis: Der Beitrag beschreibt typische Charakteristika von Legacy-Systemen (z. B. enge Kopplung, veraltete Technologien, fehlende Dokumentation) und leitet Forschungs- und Handlungsfelder ab. Für diese Arbeit liefert er ein allgemeines Problemprofil, das in der Fallstudie konkretisiert wird.
- Sneed, H. M. (1995): *Planning the reengineering of legacy systems*. IEEE Software. https://doi.org/10.1109/52.363168
Synopsis: Der Artikel behandelt Reengineering als planbaren Prozess und betont die Notwendigkeit strukturierter Analyse- und Entscheidungsphasen. Für diese Arbeit ist dies eine Grundlage, um KI-gestützte Requirements-Extraktion als Teil einer systematischen Modernisierungsplanung zu positionieren.
- Bisbal, J.; Lawless, D.; Wu, B.; Grimson, J. (1997): *An overview of legacy information system migration*. APSEC/ICSC. https://doi.org/10.1109/apsec.1997.640219
Synopsis: Der Beitrag gibt einen Überblick über Migrationsstrategien und typische Risiken (z. B. Datenmigration, Funktionsäquivalenz, organisatorische Abhängigkeiten). Er ist hilfreich, um die Rolle von Requirements als Risikoreduktionsinstrument im Migrationskontext zu begründen.
- Wu, B.; Lawless, D.; Bisbal, J.; Grimson, J. (1997): *Legacy systems migration a method and its tool-kit framework*. APSEC/ICSC. https://doi.org/10.1109/apsec.1997.640188
Synopsis: Der Beitrag stellt eine methodische Klammer für Migration und Werkzeugunterstützung vor. Für diese Arbeit ist die Argumentationslinie wichtig, dass Tooling nur dann wirkt, wenn es in einen reproduzierbaren Prozess eingebettet ist.
- Kratzke, N.; Quint, P.-C. (2017): *Understanding cloud-native applications after 10 years of cloud computing A systematic mapping study*. Journal of Systems and Software. https://doi.org/10.1016/j.jss.2017.01.001
Synopsis: Die Mapping Study systematisiert Merkmale „cloud-nativer“ Anwendungen und zeigt, wie sich Architekturprinzipien und Betriebsmodelle entwickeln. Für diese Arbeit ist dies relevant, um Zielarchitektur-Anforderungen (z. B. Skalierbarkeit, Deployment) gegenüber einer Windows-Client/Server-Welt abzugrenzen.
- Pahl, C.; Jamshidi, P. (2016): *Microservices: A Systematic Mapping Study*. CLOSER/Cloud Computing and Services Science. https://doi.org/10.5220/0005785501370146
Synopsis: Die Arbeit kartiert Forschung zu Microservices und benennt wiederkehrende Herausforderungen (u. a. Granularität, Observability, Deployment-Komplexität). Für diese Arbeit liefert sie theoretische Anknüpfungspunkte für „Modularisierung“ als Modernisierungsziel.
- *Security in Legacy Systems Migration to the Cloud: A Systematic Mapping Study*. https://doi.org/10.5220/0004979900260037
Synopsis: Die Mapping Study fasst Sicherheitsaspekte bei der Cloud-Migration von Legacy-Systemen zusammen (z. B. Identitäten, Datenfluss, Compliance). Sie ist für diese Arbeit relevant, weil Requirements-Extraktion ohne Sicherheits- und Datenschutzanforderungen systematisch unvollständig bleibt.
## Webquellen und ergänzende Materialien (nicht peer-reviewed)
- Interaction Design Foundation: *Requirements Engineering*. https://www.interaction-design.org/literature/book/the-encyclopedia-of-human-computer-interaction-2nd-ed/requirements-engineering
Synopsis: Der Beitrag bietet eine zugängliche, praxisnahe Einführung in Requirements Engineering und typische Aktivitäten. Er ist als Einstieg geeignet, ersetzt jedoch keine Primärliteratur oder Standards.
- BibSonomy (Link nicht automatisiert auflösbar): https://www.bibsonomy.org/bibtex/1510ac6a2b48df877bbdcd429daee73eb/butonic?lang=de
Synopsis: Der Link verweist auf einen BibTeX-Eintrag, der ohne interaktive Auflösung im Browser nicht zuverlässig extrahierbar war. Für die weitere Arbeit sollte die zugehörige Publikation mit DOI/ISBN ergänzt oder durch eine direkt zitierfähige Quelle ersetzt werden.