Styleguide V1

This commit is contained in:
2025-11-08 20:36:02 +01:00
parent e4dcfbd6ff
commit af1797496e
21 changed files with 11450 additions and 19 deletions

View File

@@ -2,7 +2,7 @@
#let meta = (thesis.meta)( #let meta = (thesis.meta)(
"KI-gestütztes Reverse Requirements Engineering bei Legacy-Software", "KI-gestütztes Reverse Requirements Engineering bei Legacy-Software",
subtitle: "Masterarbeit an der Hochschule Neu-Ulm", "Masterarbeit an der Hochschule Neu-Ulm",
"Christoph Musterfrau", "Christoph Musterfrau",
"Master of Science", "Master of Science",
"Prof. Dr. Daniel Schallmo", "Prof. Dr. Daniel Schallmo",
@@ -24,18 +24,17 @@
#pagebreak() #pagebreak()
#set heading(numbering: "1.1.1")
#(thesis.body_show)() #(thesis.body_show)()
#(thesis.body_content)([ #(thesis.body_content)([
#set page(numbering: "roman") #set page(numbering: "1")
#counter(page).update(1) #counter(page).update(1)
#heading(level: 1)[Inhaltsverzeichnis] #outline(depth: 2, title: "Inhaltsverzeichnis")
#outline(depth: 3)
#pagebreak() #pagebreak()
#set page(numbering: "arabic")
#counter(page).update(1)
#heading(level: 1)[Einleitung] #heading(level: 1)[Einleitung]
#heading(level: 2)[Motivation und Ausgangssituation] #heading(level: 2)[Motivation und Ausgangssituation]
Beschreibe die Relevanz der Migration der c-entron ERP-Software. Beschreibe die Relevanz der Migration der c-entron ERP-Software.

View File

@@ -0,0 +1,92 @@
# Protokoll des Versuchs Gaschromatographie
## Reaktionskinetik
### Versuchsdurchführung
Vor dem Versuch wurde vom Betreuer die **Referenzlösung** bestehend aus
2650 µl Puffer, 100 µl Semicarbazid-HCl, 200 µl NAD und 10 µl GSH
in die Referenzküvette pipettiert und der Nullabgleich des Spektrometers durchgeführt.
Wir führten **11 Enzymtests** durch.
Zunächst wurden 2500 µl Puffer, 100 µl Semicarbazid-HCl, 200 µl NAD, 10 µl GSH und 100 µl Ethanol-Testlösung gemischt und im Spektrometer temperiert. Danach wurde die entsprechende Menge Ethanol hinzugegeben — im ersten Versuch 0 µl und in den weiteren Versuchen jeweils 10 µl mehr. Das Gemisch wurde dann 240 s lang im Spektrometer gemessen.
---
## Auswertung 1
| Ethanol [µl] | n [µmol] | Vges [ml] | cs [mmol/l] | 1/cs [l/mmol] |
|---------------|-----------|------------|--------------|---------------|
| 0 | 0,00 | 2,96 | 0,00 | ∞ |
| 10 | 173,28 | 2,96 | 58,54 | 0,0171 |
| 20 | 346,56 | 2,96 | 117,08 | 0,0085 |
| 30 | 519,84 | 2,96 | 175,62 | 0,0057 |
| 40 | 693,12 | 2,96 | 234,16 | 0,0043 |
| 50 | 866,40 | 2,96 | 292,70 | 0,0034 |
| 60 | 1039,68 | 2,96 | 351,24 | 0,0028 |
| 70 | 1212,96 | 2,96 | 409,78 | 0,0024 |
| 80 | 1386,24 | 2,96 | 468,32 | 0,0021 |
| 90 | 1559,52 | 2,96 | 526,86 | 0,0019 |
| 100 | 1732,80 | 2,96 | 585,40 | 0,0017 |
*Tabelle 1: Messprotokoll I*
---
| Ethanol [µl] | ΔE/Δt (min⁻¹) | v₀ (µmol l⁻¹ min⁻¹) | 1/v₀ (l min µmol⁻¹) | v₀/cs (10⁻³ min⁻¹) |
|---------------|----------------|---------------------|---------------------|--------------------|
| 0 | 0,0084 | 0,00026 | 3846,15 | ∞ |
| 10 | 0,0101 | 0,00034 | 1515,15 | 0,000002 |
| 20 | 0,1926 | 0,00554 | 180,50 | 0,000019 |
| 30 | 0,4092 | 0,01148 | 87,10 | 0,000027 |
| 40 | 0,4385 | 0,01196 | 83,61 | 0,000022 |
| 50 | 0,6109 | 0,01683 | 59,41 | 0,000024 |
| 60 | 0,6084 | 0,01665 | 60,06 | 0,000020 |
| 70 | 0,6593 | 0,01817 | 55,03 | 0,000018 |
| 80 | 0,6354 | 0,01738 | 57,53 | 0,000016 |
| 90 | 0,7997 | 0,02272 | 44,01 | 0,000017 |
| 100 | 0,8794 | 0,02440 | 40,98 | 0,000017 |
*Tabelle 2: Messprotokoll II (ΔE/Δt durch lineare Regression bestimmt)*
---
## Auswertung 2 Lineweaver-Burk
- Steigung: m = 0,00000965 × 10⁻³ min⁻¹
- Achsenabschnitt: b = 0,00288 µmol/l
- KM = 0,0033 mmol/l
- v₀,max = 347,22 l min/µmol
---
## Auswertung 3 Eadie-Hofstee
- Steigung: m = 861,76 × 10⁻³ min⁻¹
- Achsenabschnitt: b = 0,37 µmol l⁻¹ min⁻¹
- KM = 861,76 mmol l⁻¹
- v₀,max = b
---
## Auswertung 4 Michaelis-Menten
- KM = 0,015
- v₀,max = 0,03
Die Michaelis-Menten-Auftragung ist sehr einfach, da die maximale Geschwindigkeit und die Konstante direkt aus der Formel abgelesen werden können. Diese Methode ist genauer und erfordert kaum Rechenzeit.
Bei Lineweaver-Burk und Eadie-Hofstee werden die Werte mithilfe von Ausgleichsgeraden bestimmt. Da die Geraden unterschiedlich (linear oder logarithmisch) aufgetragen werden können, ergeben sich abweichende Werte. Zudem können durch ungenaues Ablesen Rundungsfehler entstehen.
---
## Auswertung 5 Temperaturabhängigkeit
Die Geschwindigkeitskonstante *k* hängt exponentiell von der Umgebungstemperatur *T* ab:
\[
k = k_0 \, e^{-\frac{E_A}{RT}}
\]
Diese Konstante beeinflusst die Michaelis-Menten-Gleichung, welche wiederum die Reaktionsgeschwindigkeit bestimmt. Eine Temperaturänderung führt also zu einer Änderung der Reaktionsgeschwindigkeit.
Damit die Temperatur während des Versuchs konstant bleibt, wird die Lösung **vor Beginn temperiert**. So hängt die Reaktionsgeschwindigkeit nur noch von der Änderung der Stoffmenge ab.

View File

@@ -0,0 +1,29 @@
Einleitung
Unsere Aufgabe bestand darin Die beiden Protein 1HVR und 1AZM mit ihren Liganden mit Hilfe von Autodock 3.0 zu docken und die Ergebnisse mit den vorhandenen Kristallstrukturanalysen zu vergleichen. Hierzu haben wir die entsprechenden pdb Files von www.pdb.org verwendet. Diese mussten um korrekte Ergebnisse zu erzielen vor dem docken vorbereitet werden. Dazu zählt das Entfernen von freien Wassermolekülen um das Protein und die Entfernung der apolaren Wasserstoffe; die polaren dienen zur Berechnung der WBB. (genaueres siehe einzelne Proteine).
Über Autodock
Für die einzelnen Dockingläufe wurde Autodock 3.0 von 1998 verwendet. Die Energiefunktion von Autodock 3.0 lautet:
Hierin sind Berücksichtigt:
* H-Brücken
* vdW-Wechselwirkungen
* Elektrostatik
* Entropie aus internen FG des Liganden
* Solvatationsbeiträge
Das besondere an Autodock ist nun dass diese Energiefunktion nicht zur Laufzeit des Dockings sondern schon im Voraus berechnet wird. Um die Berechnung zu beschleunigen wird zudem ein diskretes Gitter Über die Bindungsstelle gelegt und die Energien nun für die Einzelnen Gitterpunkte berechnet. Zum docken liegen nun schon alle Energien berechnet vor so dass diese nur noch ausgelesen werden müssen. Der größte Nachteil hierbei ist ein großer Speicherverbrauch da pro Atomtyp/Wechselwirkung Ein Gitter angelegt wird.
Das eigentliche Docking erfolg nun über einen Lamarckschen genetischen Algorithmus bei dem die Ligandenkonformation als Chromosome kodiert sind. Jedes Individuum besitzt hierbei 3 Gene für Translation 4für Rotation und je ein Gen pro interner Torsion.
Docking von 1HVR
Über 1HVR
1HVR ist eine Protease des HIV-1 die eine große Rolle in der Reifung neuer Viren spielt. Die Inhibierung dieser Protease führt zur Bildung nichtinfektiöser Viren. Daher ist 1HVR ein attraktives Ziel zur Bekämpfung von AIDS.
Vorbereitung
Wie in der Einleitung bereits erwähnt liegt der Enzym-Substrakt-Komplex bereits durch Röntgenstrukturanalyse als pdb Datei vor. Diese Datei musste nun vor dem Docking von freien Wassermolekülen bereinigt werden um keine Verzerrung der Ergebnisse zu erzielen. Des weiten mussten alle unpolaren Wasserstoffe entfernt und alle noch fehlenden polaren Wasserstoffe hinzugefügt werden um eine korrekte Berechnung der Wasserstoffbrücke zu erreichen. Anschließen musste noch die Größe und Auflösung des Gittes um die Bindungsstelle angegeben werden
Docking
Erster Schritt des Dockings mit Autodock 3.0 ist die Berechnung der Energiegitter mit Hilfe der Energiefunktion. Anschließen wird auf Grundlage dieser Energiegitter gedockt. Ein kompletter durchlauf mit 20 Wiederholungen dauerte ca. 5 Minuten.
Ergebnis
Der beste dieser Läufe lag mir einem rmsd von 0.42 sehr nahe an der schon vorliegenden Struktur.(Siehe Abb.)

Binary file not shown.

View File

@@ -0,0 +1,838 @@
Self Leadership:
Wer bin ich - und wenn ja, wieviele?
Autor: Christoph Schwörer
Datum 17.05.2024 Title
Inhalt
Einleitung .................................................................................................................... 3
Theoretischer Hintergrund .......................................................................................... 4
Messinstrumente ..................................................................................................... 4
Merkmale Psychologischer Tests ........................................................................ 4
Die „Big 5“ ........................................................................................................... 5
Motive .................................................................................................................. 6
Das „Emotional Intelligence Inventar“ (EI4) ......................................................... 8
Methodik und Testdurchführung ............................................................................... 10
Testergebnisse ......................................................................................................... 12
Diskussion ................................................................................................................ 15
Fazit und Ausblick ..................................................................................................... 16
Literaturverzeichnis .................................................................................................. 17
Ehrenwörtliche Erklärung .......................................................................................... 18
2/18
Einleitung
„Wer bin ich Und wenn ja, wie viele?“ Diese Frage stellt der deutsche Philosoph
David Rupert Precht in seinem gleichnamigen Buch. Um diese Frage eingehend zu
klären, müssen wir uns selbst beobachten und damit in Einklang bringen wie andere
uns Wahrnehmen uns Bewerten. Je besser wir darin sind diese zwei Perspektiven in
Einklang zu bringen, desto erfolgreicher sind wir im privaten und auch im beruflichen
Leben. Die wissenschaftliche Disziplin, die sich mit diesem Thema beschäftigt nennt
sich Self-Leadership oder im deutschen Selbstführung und setzt sich zusammen aus
Konzepten des Managements und der Psychologie. Sie beschreibt unsere Fähigkeit
sich selbst zu bewerten, zu führen, sich Ziele zu setzen und sich selbst zu motivieren.
Seit der Prägung des Begriffs Self Leadership im Jahr 1983 durch Charles C. Manz in
seinem Buch "The Art of Self-Leadership: Strategies for Personal Effectiveness in your
Life and Work" wurde er stetig weiterentwickelt.
Wie aber bewertet man sich selbst richtig. Hierbei ist es wichtig zu wissen nach
welchen Kriterien und Merkmalen man sich selbst bewertet. Bereits in den 1930er
Jahren begannen Gordon Allport und Henry Odbert mit der Forschung zur
Klassifizierung von Persönlichkeitsmerkmalen. Diese Forschung setzte sich fort, bis
sie in den 1980er Jahren im Big5 Modell mündete. Dieses Modell beschreibt 5
Kernelemente eine Persönlichkeit: Offenheit für Erfahrungen, Gewissenhaftigkeit,
Extraversion, Verträglichkeit und Neurotizismus. Den Eigenschaften gemein ist, dass
sie gut messbar und sehr stabil sind. Das heißt sie schwanken nicht mit der Tagesform
und bleiben in ihrer Ausprägung über lange Jahre gleich beständig.
Eine weitere Möglichkeit einen Charakter zu bewerten ist über seine Emotionale
Intelligenz. In seinem Buch "Emotional Intelligence: Why It Can Matter More Than IQ"
(1995) beschreibt Daniel Goleman die fünf Hauptkomponenten der Emotionalen
Intelligenz: Selbstwahrnehmung, Selbstregulation, Selbstmotivation, Empathie und
soziale Fähigkeiten.
Um sich selbst zu bewerten, genügt somit ein standardisierter Test jeweils für die Big
5 und zur emotionalen Intelligenz. Die Beantwortung der eingehenden Frage „Wer bin
ich Und wenn ja, wie viele?“ bleibt aber noch aus. Denn vor allem die Frage „Wie
viele?“ zielt nach Ansicht des Autors auf eine weiter greifende Frage. Zeigt eine Person
in verschiedenen sozialen Umfeldern oder Rollen auch unterschiedlich starke
3/18
Ausprägungen von Charaktereigenschaften. Und wie stark variieren hierbei die Selbst-
und die Fremdwahrnehmung voneinander. Um diese Frage zu beantworten, stellt sich
der Autor dem Selbstexperiment und bewertet sich selbst in seiner privaten Rolle als
Familienvater aber auch in seiner beruflichen Rolle als Führungskraft. Ergänz wird
diese Selbstbewertung um eine Fremdbewertung jeweils aus der Familie und aus dem
Arbeitsumfeld.
Theoretischer Hintergrund
Messinstrumente
Psychologische Tests sind standardisierte wissenschaftliche
Instrumente, die
verwendet werden, um verschiedene psychologische Merkmale, wie Fähigkeiten,
Persönlichkeitseigenschaften, Einstellungen und Verhaltensweisen, zu messen. Diese
Tests sind so konzipiert, dass sie valide und reliable Ergebnisse liefern, die es
ermöglichen, objektive und vergleichbare Daten zu erheben.
Merkmale Psychologischer Tests
Um aussagekräftige und zuverlässige Ergebnisse zu liefern, müssen psychologische
Tests bestimmte Merkmale aufweisen [Leong, Bartram (2016); The ITC International
Handbook of Testing and Assessment]
Standardisierung
Die Durchführung der Tests erfolgt unter einheitlichen Bedingungen, um Verzerrungen
zu minimieren und die Vergleichbarkeit der Ergebnisse zu gewährleisten. Dies
beinhaltet gleiche
Instruktionen, Testmaterialien und Zeitvorgaben
für alle
Testpersonen.
Validität
Ein Test ist valide, wenn er tatsächlich das misst, was er zu messen vorgibt. Arten der
Validität umfassen Inhaltsvalidität (umfasst das Testmaterial das gesamte Spektrum
des zu messenden Konstrukts?), Konstruktvalidität
(misst der Test das
4/18
zugrundeliegende theoretische Konstrukt?) und Kriteriumsvalidität (sagt der Test ein
relevantes externes Kriterium vorher?).
Reliabilität
Die Reliabilität eines Tests bezieht sich auf seine Zuverlässigkeit und Konsistenz. Ein
reliabler Test liefert bei wiederholter Durchführung unter gleichen Bedingungen
ähnliche Ergebnisse. Dies umfasst interne Konsistenz (wie gut die einzelnen Testitems
zusammenhängen), Retest-Reliabilität (Stabilität der Testergebnisse über die Zeit) und
Interrater-Reliabilität (Übereinstimmung zwischen verschiedenen Beurteilern).
Objektivität
Ein Test ist objektiv, wenn seine Durchführung, Auswertung und Interpretation
unabhängig vom Testleiter sind. Dies stellt sicher, dass die Ergebnisse nicht durch
subjektive Einflüsse verzerrt werden.
Die „Big 5“
Auch Ocean Model genannt. Im Folgenden werden die 5 Zentralen Dimensionen der
Persönlichkeitsforschung (Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit
und Neurotizismus), auch Faktoren genannt, genauer erklärt.
Offenheit für Erfahrungen (engl. Openness)
Dieser Faktor beschreibt die Neigung einer Person offen gegenüber neuen
Erfahrungen und
Ideen zu sein und kreative Lösungen zu erarbeiten.
Personen mit einem hohen Wert an Offenheit werden häufig als wissbegierig,
intellektuell, fantasievoll, neugierig oder aufgeschlossen beschrieben. Eine Vorliebe für
Kunst, Literatur und Musik wird
in
(Schwaba et al, 2018) beschrieben.
Personen mit einem niedrigen Wert an Offenheit neigen dagegen zu konservativen
Einstellungen und werden oft als pragmatisch oder engstirnig beschrieben.
Gewissenhaftigkeit (engl. Conscientiousness)
Dieser Faktor beschreibt die Tendenz einer Person selbst-diszipliniert, selbst-
organisiert zu sein. Er beschreibt den Grad an Selbstkontrolle und Zielstrebigkeit einer
Person. Personen mit hohen Werten an Gewissenhaftigkeit werden häufig als
organisiert, zuverlässig, sorgfältig und effektiv beschrieben. Personen mit niedrigen
5/18
Werten an Gewissenhaftigkeit fallen häufig durch spontanes Verhalten auf können
aber auch flexibler sein.
Extraversion (engl. Extraversion)
Dieser Faktor beschreibt die Fähigkeit von Personen aktiv auf andere zuzugehen mit
ihnen zu kommunizieren und sich durchsetzen zu können. Personen mit einem hohen
Wert an Extraversion werden als kontaktfreudig, gesellig, heiter, aber auch
durchsetzungsstark beschrieben. Das Gegenteil der Extraversion ist hierbei die
Intraversion. Personen mit einem niedrigen Wert an Extraversion (respektive hohen
Wert an
Introversion) wirken daher eher nachdenklich, verschlossen und
zurückhaltend.
Verträglichkeit (engl. Agreeableness)
Dieser Faktor beschreibt, wie gut sich eine Person in einem sozialen Umfeld bewegen
und eingliedern kann. Personen mit hohen Werten an Personen mit einem Hohen Wert
an Verträglichkeit werden häufig als anerkennen, verständnisvoll, kooperativ und
wertschätzend beschrieben. Sie sind allgemein gute Team-Player. Personen mit einem
niedrigen Wert an Verträglichkeit sind häufig kritisch, unfreundlich oder streitsüchtig.
Neurotizismus (engl. Neuroticism)
Das Gegenteil dieses Faktors wir im deutschen auch Emotionale Stabilität genannt. Er
beschreibt, wie stark ein negatives Ereignis eine Person emotional beeinflussen kann.
Personen mit einem hohen Wert an Neurotizismus sind oft angespannt, nervös,
unsicher und haben Schwierigkeiten in Stresssituationen. Personen mit einem
niedrigen Wert an Neurotizismus sind ich sich selbst gefestigt und wirken ruhig,
zufrieden und sicher.
Motive
Die Motivationspsychologie versucht die unterschiedlichen Bedürfnisse und Antriebe
von Individuen erklären. Diese Motive beeinflussen, wie Menschen ihre Ziele setzen
und verfolgen sowie wie sie in verschiedenen sozialen und beruflichen Kontexten
handeln. Im Folgenden werden die 3 wesentlichen Motive näher beschrieben.
Machtmotiv
Das Machtmotiv bezieht sich auf das Bedürfnis eines Individuums, Einfluss auf andere
auszuüben, Kontrolle über Ressourcen zu haben und eine dominante Rolle in sozialen
oder beruflichen Beziehungen zu spielen. (McClelland, 1987)
6/18
Merkmale des Machtmotivs sind:
• Der Wunsch nach Einfluss und Kontrolle über andere
• Das Streben nach Führungspositionen und Entscheidungsbefugnissen
• Die Suche nach Anerkennung und Status
• Die Tendenz, Herausforderungen und Wettbewerb zu suchen
Leistungsmotiv
Das Leistungsmotiv bezieht sich auf das Bedürfnis eines Individuums, hohe Standards
zu erreichen, Exzellenz in Tätigkeiten zu zeigen und durch persönliche Fähigkeiten
und Anstrengungen erfolgreich zu sein. (Murray, 1938)
• Merkmale des Leistungsmotivs sind:
• Das Streben nach Exzellenz und Perfektion
• Der Wunsch, anspruchsvolle Ziele zu setzen und zu erreichen
• Die Freude an der Bewältigung von Herausforderungen
• Die Präferenz für Aufgaben, die durch persönliches Wissen oder Fähigkeiten
erfüllt werden können
Sicherheitsmotiv
Das Anschlussmotiv bezieht sich auf das Bedürfnis eines Individuums nach sozialen
Beziehungen, Zugehörigkeit und positiver sozialer Interaktion. (McClelland, 1987)
• Merkmale des Sicherheitsmotivs sind:
• Der Wunsch nach freundschaftlichen und harmonischen Beziehungen
• Das Bedürfnis nach sozialer Anerkennung und Akzeptanz
• Die Freude an gemeinschaftlichen Aktivitäten und Zusammenarbeit
• Die Tendenz, Konflikte zu vermeiden und Kooperation zu fördern
7/18
Das „Emotional Intelligence Inventar“ (EI4)
In seinem Buch "Emotional Intelligence: Why It Can Matter More Than IQ" (1995)
beschreibt Daniel Goleman die fünf Hauptkomponenten der Emotionalen Intelligenz:
Selbstwahrnehmung, Selbstregulation, Selbstmotivation, Empathie und soziale
Fähigkeiten. Basierend auf diesen Eigenschaften entwickelt Lars Satow in einem Test
Emotional Intelligence Inventar (EI4) die folgenden 4 testbaren Bereiche Emotionaler
Intelligenz.
Einfühlungsvermögen
Einfühlungsvermögen oder Empathie ist ein zentraler Bestandteil der emotionalen
Intelligenz und umfasst die Fähigkeit, die Emotionen und Perspektiven anderer
Menschen zu verstehen und sich in diese hineinzuversetzen. Damit einhergehend ist
die Fähigkeit angemessen darauf zu reagieren und so die Kommunikation zu fördern
und Konfliktlösung und Zusammenarbeit zu fördern. Eine der grundlegenden Quellen
zur Erforschung der emotionalen Intelligenz, einschließlich Empathie, ist das Buch von
Daniel Goleman, „Emotional Intelligence: Why It Can Matter More Than IQ“ (1995).
Menschenkenntnis
Menschenkenntnis ist die Operationalisierung des Einfühlungsvermögens auf der
kognitiven Ebene. Es beschreibt die Fähigkeit die Charaktereigenschaften, Motive und
Ziele anderer Menschen richtig zu verstehen und daraus ihre Handlungen abzuleiten
oder vorherzusagen. Menschenkenntnis ist keine inhärent angeborene Fähigkeit,
sondern wird im Laufe des Lebens erlernt und verbessert.
Überzeugungskraft
Überzeugungskraft bezieht sich auf die Fähigkeit, andere Menschen durch effektive
Kommunikation, Charisma und emotionale Interaktion zu beeinflussen und zu
überzeugen. Diese Fähigkeit ermöglicht es einer Person, ihre Ideen und Standpunkte
klar und überzeugend darzulegen und andere zu motivieren, ihre Sichtweise zu
akzeptieren oder bestimmten Handlungen zu folgen.
Emotionale Selbstkontrolle
Emotionale Selbstkontrolle beschriebt sich auf die Fähigkeit, die eigenen Emotionen
bewusst zu regulieren und zu steuern, um angemessen und konstruktiv auf
verschiedene Situationen zu reagieren. Diese Fähigkeit ermöglicht es, impulsive
8/18
Reaktionen zu vermeiden, stressige Situationen zu bewältigen und nach außen hin
ruhig zu wirken, um die eigenen Ziele zu verfolgen.
9/18
Methodik und Testdurchführung
In diesem Kapitel wird die Methodik und Durchführung der Big Five
Persönlichkeitsmerkmale und des Emotional Intelligence Inventory (EI4) Tests sowohl
aus Eigenperspektive als auch aus Fremdperspektive beschrieben. Ziel ist es, ein
umfassendes Verständnis der Vorgehensweise bei der Erhebung dieser
psychologischen Maße zu vermitteln.
Zur Durchführung der Big 5 und IE4 Tests sollen allgemein anerkannte Tests mit einer
großen Gesamtstichprobe verwendet werden. Die Auswahl fällt hierbei auf die Tests
von Dr. Lars Satow (2011)
Testumfang
Der „Big 5“-Test von Dr. Satow beinhaltet einen Fragebogen mit 72 Fragen die mit 4
möglichen Antworten auf einer Skala von 1 (Trifft gar nicht zu) bis 4 (trifft genau zu)
beantwortet werden können. Es kann jeweils nur eine Antwort angekreuzt werden. Das
Ergebnis des Tests sind Werte für die Big 5 (Neurotizismus, Extraversion,
Gewissenhaftigkeit, Offenheit, und Verträglichkeit) sowie den damit verbundenen
Motiven (Leistungsmotiv, Machtmotiv und Anschlussmotiv). Zudem wird ein Wert für
die Ehrlichkeit bei der Beantwortung und eine die damit verbundene Plausibilität
ausgegeben.
Für den IE4 Test stehen 28 Fragen zu Auswahl die jeweils auf einer Skala von 1 4
beantwortet werden. Als Ergebnis werden Werte
für Einfühlungsvermögen,
Menschenkenntnis, Überzeugungskraft und Emotionale Selbstkontrolle ausgegeben.,
Zur Durchführung beider Tests gelten folgende Kriterien:
• Die Tests dürfen nur von Erwachsenen Personen älter als 16 Jahren
durchgeführt werden.
• Die Teilnehmer sollten ausgeruht sein und dürfen nicht unter Einfluss
Bewusstseinsverändernder Drogen oder Medikamente stehen.
• Zur Durchführung der Tests werden die Testbögen in 10-20 Minuten durch den
Testteilnehmer möglichst spontan beantwortet.
• Die Teilnehmer sollten ungestört und ohne äußeren Einfluss die Fragen
beantworten.
10/18
Testdurchführung
Um der Frage nachzugehen, ob sich Selbst- und Fremdwahrnehmung sowie die
Bewertung im Kontext verschiedener sozialer Rollen sich voneinander unterscheiden
werden 4 Tests durchgeführt.
1. Selbstwahrnehmung
2. Fremdwahrnehmung aus Sicht eines Familienmitglieds
3. Fremdwahrnehmung aus Sicht eines weiteren Familienmitglieds
4. Fremdwahrnehmung aus Sicht des Vorgesetzen auf der Arbeitsstelle
Alle Tests wurden nach den im vorigen Absatz beschriebenen Kriterien durchgeführt,
um ein möglichst genaues Ergebnis zu erhalten und eine Einflussnahme des
Testsubjekts bei der Fremdwahrnehmung auszuschließen.
11/18
Testergebnisse
In diesem Kapitel werden die Ergebnisse zu den „Big 5“ und „EI4“ Test dargestellt
und beschrieben. Zur kompakteren Darstellung wurden die Ergebnisse kumuliert
untereinander in einer Tabelle dargestellt.
Big 5
In Abb. 1 sind die Testergebnisse aller durchgeführten Tests zu den Big 5 dargestellt.
Wie man erkennt, liegen die Ergebnisse der Fremdwahrnehmung je Merkmal jeweils
in einem Cluster mit einer maximalen Abweichung von 2 Graden zur
Selbstwahrnehmung. Lediglich beim Merkmal „Extraversion“ gibt es eine Abweichung
von 3 Graden.
Die Mittlere Abweichung von der Selbstwahrnehmung stellt sich wie folgt dar:
N
0,67
E
1,67
C
1,00
O
0,67
A
0,33
LM
0,67
MM
0,67
SM
0,67
Ø
0,79
Eigenschaft / Motiv
Mittlere Abweichung
Selbstwahrnehmung
EI4
In Abb. 2 sind die Testergebnisse aller durchgeführten Tests zum EI4 dargestellt. Auch
hier liegen die Ergebnisse der Selbstwahrnehmung und der Fremdwahrnehmung
innerhalb eines Intervalls von 2 Graden um die Selbstwahrnehmung. Die einzige
Abweichung ist im Bereich „Überzeugungskraft“ mit einer Abweichung von 3 Graden
zu sehen.
Die Mittlere Abweichung von der Selbstwahrnehmung stellt sich wie folgt dar:
Eigenschaft / Motiv
Mittlere Abweichung
Selbstwahrnehmung
EM
0,67
Mk
0,33
Ue
1,00
eS
1,00
Ø
0,75
12/18
Abbildung 1: Ergebnisse Big 5 Tests
13/18
Abbildung 2: Ergebnisse EI4 Tests
14/18
Diskussion
In diesem Abschnitt werden die Ergebnisse des Big Five Persönlichkeitsmerkmale-
Tests und des Emotional Intelligence Inventory (EI4) Tests ausgewertet und
interpretiert. Der Fokus liegt dabei auf den durchschnittlichen Abweichungen zwischen
Selbst- und Fremdwahrnehmung sowie deren Implikationen.
Die beim Big 5 Test Ausgewerteten Ergebnisse liegen bei der Durchschnittlichen
Abweichungen zwischen Selbst- und Fremdwahrnehmung unter 1 Punkt und somit
sehr nahe beieinander. Daraus lassen sich zwei Aussagen treffen. Erstens, Die
bewertete Person hat eine starke Ausprägung der „Öffentlichen Person“ nach dem
JoHari-Fenster [Luft, Ingram (1955)]. Das heißt die verfügbaren Informationen im
„öffentlichen Raum“ sind allen Testteilnehmern so gut bekannt, dass die Fragen alle
weitestgehend gleich beantwortet werden konnten. Die zweite Aussage ist, dass die
getestete Person auch in verschiedenen sozialen Umfeldern (Arbeit / zu Hause) gleich
bewertet wird. Die getestete Person zeigt also in den verschiedenen Umfeldern
dennoch immer die gleichen Charaktereigenschaften. Die eingängliche These, dass
eine Person in verschiedenen Sozialen Umfeldern unterschiedliche Ausprägungen der
einzelnen Charaktereigenschaften zeigt, konnte mit diesem Test also nicht
nachgewiesen werden. Es zeigt sich sogar, dass die Charaktereigenschaften sehr
stabil sind und nicht schwanken.
Auch die Ergebnisse des Emotional Inventory 4 bestätigen dieses Bild, Denn auch hier
liegen
die
durchschnittlichen
Abweichungen
zwischen
Selbst-
und
Fremdwahrnehmung unter 1 Punkt. Dies deutet auf eine stabile Emotionale Basis die
die Selbstwahrnehmung bestimmt sowie eine gute Kommunikation der Emotionen
nach außen so, dass sich die Fremdwahrnehmung mit den tatsächlich empfundenen
Emotionen deckt.
15/18
Fazit und Ausblick
Die Frage „Wer bin ich, und wenn ja wie viele?“ die darauf hinauszielen soll, dass man
sich als Person in verschiedenen Umfeldern auch unterschiedlich verhält kann nach
dieser Studie nur mit „Man ist, wer man ist“ beantwortet werden. Konkret zeigt sich
dies in der sehr geringen Schwankung der Ergebnisse bei der Charaktereigenschaft
der Big5 oder auch der Emotionalen Komponenten im Emotional Inventory 4 zwischen
privatem und beruflichem Umfeld.
Bezogen auf das Thema „Self-Leadership“ sollte man sich also darüber im Klaren sein,
dass man ein Charaktereigenschafts-bedingtes Verhalten in allen Situationen an den
Tag legt. Möchte man sich also selbst führen und nachhaltig verbessern ist es dabei
wichtig dies auf alle Situationen anzuwenden und nicht nur Umfeldbezogen.
Kritik an der Methodik dieser Studie kann man daran üben, dass bei der Auswertung
der Antworten nicht nach spezifischen Kriterien der befragten Personen unterschieden
wurde. Es wurde also bei der Auswertung keine Rücksicht auf das alter, das
Geschlecht oder den Bildungsstand der Antwortenden genommen. Der Vorschlag für
eine Folgestudie zur Ermittlung relevanter Faktoren bei der Fremdwahrnehmung liegt
daher nahe. Die Frage, die sich hierbei stellt, ist, ob die Bewertung von bestimmten
Kriterien und deren Gewichtung abhängig von persönlichen Faktoren sind. So wäre
zum Beispiel zu klären ob Frauen bestimmte Fragen in der Fremdwahrnehmung
anders gewichten als die selbstwahrnehmende Männliche Person.
16/18
Literaturverzeichnis
Precht, R.D. (2007) Wer bin ich und wenn ja, wie viele?
Allport, G. W., & Odbert, H. S. (1936). "Trait-names: A psycho-lexical study."
Psychological Monographs, 47(1), i-171.
Michael G. Goldsby, Elizabeth A. Goldsby, Christopher B. Neck, Christopher P.
Neck and Rob Mathews „Self-Leadership: A Four Decade Review of the Literature
and Trainings
Goldberg, L. R. (1981). "Language and individual differences: The search for
universals in personality lexicons." Review of Personality and Social Psychology, 2,
141-165.
Daniel Goleman (1995). „Emotional Intelligence: Why It Can Matter More Than IQ“
Leong, Bartram (2016). „The ITC International Handbook of Testing and Assessment“
Luft, J.; Ingham, H. (1955). "The Johari window, a graphic model of interpersonal
awareness". Proceedings of the Western Training Laboratory in Group Development.
Los Angeles: University of California, Los Angeles.
17/18
Ehrenwörtliche Erklärung
Hiermit erkläre ich, Christoph Schwörer, dass ich die vorliegende Arbeit mit dem Titel
„Self Leadership: Wer bin ich - und wenn ja, wieviele?“ selbstständig und ohne
unerlaubte Hilfe angefertigt habe. Ich habe keine anderen als die angegebenen
Hilfsmittel verwendet und alle Quellen, die ich wörtlich oder sinngemäß übernommen
habe, sind als solche kenntlich gemacht.
Ich versichere, dass ich die Arbeit noch keiner anderen Prüfungsbehörde vorgelegt
und mich auch noch keinem anderen Prüfungsverfahren mit dieser Arbeit unterzogen
habe.
Falls die Arbeit personenbezogene Daten enthält, erkläre ich hiermit, dass ich die
Datenschutzbestimmungen eingehalten und die Daten nur mit ausdrücklicher
Zustimmung der Betroffenen verwendet habe.
Biberach, 26.06.2024
Christoph Schwörer
18/18

4184
StilVorlagen/Diplomarbeit.md Normal file

File diff suppressed because it is too large Load Diff

File diff suppressed because it is too large Load Diff

View File

@@ -0,0 +1,624 @@
Versuch A:
Nervenphysiologie
1
Durchgeführt am:
Do. 1.4.04
Gruppe B2D
Kersting, Daniel
Maslesa, Senid
Schwörer, Christoph
Quelle: http://www.egbeck.de/skripten/bilder/frosch.gif (bearbeitet)
Tierphysiologischer Kurs / Versuch A Nervenphysiologie / Gruppe B2D / Tübingen 2004
2
1. Einführung
Die schnelle interne Informationsweiterleitung jedes mehrzelligen tierischen Lebewesens beruht
auf Nerven. Dies sind spezielle Zellen deren Membran durch eine ungleiche Verteilung von Na+
Cl- K+ und Anionen polarisiert werden. Damit die weitergeleiteten Informationen in Form von
Änderungen der Polarisation der Zellmembran größere Distanzen innerhalb des Organismus
zurücklegen zu können besteht eine Nervenzelle aus einem Zellkern in den viele Dendriten
münden, die diese Polarisationsänderung zur Zelle hin leiten, und einem aus der Zelle
ausgehenden Axon das am Axonhügel beginnt und an dessen Ende sich eine Schnittstelle zur
Informationsweitergabe befindet. Meist ist diese Schnittstelle eine Synapse die den geleiteten
Reiz an eine weitere Nervenzelle weitergibt. Es existieren aber auch andere Enden wie z.B. eine
Motorische Endplatte.
Die „Information“ die durch diese Nervenzelle weitergegeben wird ist in Form von plötzlichen
Ladungsänderungen der Zellmembran realisiert. Diese Ladungsänderungen, die AP (Aktions-
Potential) genannt werden, sind jedoch immer gleich stark (Alles oder nichts Gesetz) so dass eine
Codierung der Information anders erfolgen muss. Dies geschieht über die Frequenz mit der
Reize geleitet werden. Da jedoch die Veränderung der Polarisation mit der eine Information
geleitet wird durch einen Ausgleich der Na+ Ionen an der Zellmembran geschieht, und diese
Depolarisation der Zellmembran erst wieder durch einen Ausstrom von K+ Ionen kompensiert
werden muss kann die Frequenz mit der Reize geleitet werden nicht unbegrenzt hoch sein. Die
maximale Frequnz wird durch die sogenannte „Absolute Refraktärzeit“ der Nervenzelle
bestimmt. Diese Zeit ist die Zeit die benötigt wird um ein erneute SAP auszulösen. Die Relative
Refraktärzeit hingegen ist diejenige Zeit in der zwar schon wieder ein SAP ausgelöst werden
kann die Repolarisation der Zellmembran jedoch noch nicht vollständig ist so dass ein größerer
Reiz benötigt wird um ein SAP auszulösen.
Tierphysiologischer Kurs / Versuch A Nervenphysiologie / Gruppe B2D / Tübingen 2004
3
2. Passive Eigenschaften der Nervenzellmembran
2.1 Aufbau/Methoden:
In diesem Versuch wird die passive Membraneigenschaft einer Nervenzelle gemessen. Dabei
benutzen wir ein Modell der Nervenzellmembran (Kette von RC-Gliedern) Jedes Glied dieser
Kette repräsentiert einen kleinen Membranabschnitt mit Membranwiderstand und
Membrankapazität. Den Innenwiderstand bildet die "Intrazellulärflüssigkeit" in verbindet die
einzelnen Glieder. Der Außenwiderstand der Extrazellulärflüssigkeit wird als sehr klein
angenommen.
Aufbau:
Quelle: Script zum Versuch
2.2 Ergebnisse:
Abstand
0
Amplitude [V] 7
2
1
2,75 1,1
2.3 Diskussion:
4
3
0,45 0,17 0,05 0,045
5
6
Wenn man die Ergebnistabelle betrachtet erkennt man, dass die Amplitude sehr schnell stark abnimmt.
Dies ist auf den hohen „Innenwiederstand“ der Intrazellulärflüssigkeit zurückzuführen. Vergleicht man
die sich ergebende Kurve mit denen aus der Literatur für eine echte Nervenzelle so stellt man fest dass
das Modell sehr genau der Realität entspricht.
Tierphysiologischer Kurs / Versuch A Nervenphysiologie / Gruppe B2D / Tübingen 2004
4
3. Präperation
3.1 Präparation des Nervus ischiadicus
Ein Frosch wird dekapitiert, sein Rückenmark zerstört, enthäutet und mit Ringerlösung
abgespült.
Die Bauchhöhle des Frosches wird geöffnet und die Eingeweide entnommen. Die Ischiadicus-
Nerven werden mit einem Bindfaden abgebunden und bis zum Eintritt in den Oberschenkel
freipräpariert.
Anschließend wird er in eine Petrischale mit Ringerlösung gelegt, da dies eine optimale
Umgebung für den Nerv ist.
3.2 Versuchsaufbau Ableitapparatur
Quelle: Script zum Versuch
Tierphysiologischer Kurs / Versuch A Nervenphysiologie / Gruppe B2D / Tübingen 2004
4 Messung des Reizartefakts
4.1 Methoden/Aufbau:
Ein mit Ringer angefeuchteter Faden wir in die Ableitkammer gelegt und mit einigen Reizen
angeregt.
5
4.2 Ergebnisse:
Hier War kein Ausdruck vorhanden
4.1 Diskussion:
Tierphysiologischer Kurs / Versuch A Nervenphysiologie / Gruppe B2D / Tübingen 2004
6
5. Ableitung eines fortgeleiteten diphasischen
Summenaktionspotentials bei unterschiedlichen
Reizstärken
5.1 Methoden/Aufbau:
Ein Summenaktionspotential (SAP) entsteht bei gleichzeitiger Erregung mehrerer (sämtlicher)
Axone eines Nerven. Es wird extrazellulär abgeleitet. Die Amplitude hängt von der
Reizamplitude ab. Bei der Reizamplitude unterscheidet man zwischen der Schwellenreizstärke,
der kleinsten Reizamplitude, die noch ein meßbares SAP auslöst und der Maximalreizstärke, der
Reizamplitude, ab der eine weitere Reizstärkung keine größere SAP-Amplitude auslöst.
Zunächst wird schrittweise die Reizamplitude erhöht.
5.2 Ergebnisse:
AP: 5 fach verstärkt 5mV
Reiz: 50 mV
Zeit 0,2ms
Reiz: 500 mV
AP: 50mV
Tierphysiologischer Kurs / Versuch A Nervenphysiologie / Gruppe B2D / Tübingen 2004
7
Reiz: 2V
AP:100mV
Amplitude des SAPs in Abhängigkeit von der Reizamplitude:
Reiz[v]
0
SAP [mV] 0
0,08 0,3
125
4
1
250
3,5
280
5
280
Diagramm über die Zunahme der SAP-Amplitude in Abhängigkeit von der Reizamplitude:
5.3 Diskussion:
Im obigen Diagramm kann sowohl die untere als auch die obere Reizschwelle von 0.08V und 3.5V
sehr gut erkennen. Bei einem Schwellreiz von 0.08V werden nur sehr wenige Nervenzellen erregt,
vermutlich sogar nur eine einzige. Entsprechend schwach ist auch die gemessene Reizantwort. Je
stärker nun gereizt wird desto mehr einzelne Nervenzellen werden erregt und bilden APs die als SAP
abgeleitet werden. Ab einer Reizstärke von ca. 3.5V werden alle Nervenzellen des Nervs erregt und
eine noch weitere Verstärkung des Reizes bringt nichts.
Tierphysiologischer Kurs / Versuch A Nervenphysiologie / Gruppe B2D / Tübingen 2004
-500501001502002503000123456Amplitude [V]SAP [mV]
8
6. Bestimmung der Geschwindigkeit der
Erregungsleitung
6.1 Aufbau/Methoden:
Hier messen wir, wie groß die Geschwindigkeit ist, mit der Aktionspotentiale im Froschnerven
weitergeleitet werden. Dabei wird der Reiz einmal nahe am Reizort und einmal in einem
weiteren Abstand vom Reizort (1cm) registriert. Aus dem Abstand zwischen den beiden
Ableitelektrodenpaaren (s) und dem ermittelten Zeitunterschied (t) zwischen den abgeleiteten
SAPs kann die Leitungsgeschwindigkeit (v) errechnet werden (v=s/t).
6.2 Ergebnisse:
Zeit: 0,2ms Reiz: 2mV AP: 20mV
Der zeitliche Abstand mit dem die beiden APs gemessen wurden beträgt ca. 0,3 ms. Unter
Verwendung der oben angegeben Formel v=s/t (v=1cm/0,3ms) erhält man eine
Leitungsgeschwindigkeit von 33,3m/s.
6.3 Diskussion:
Betrachtet man die beiden Schaubilder stellt man im rechten, also der weiter vom Reiz entfernten Ableitung
eine deutliche „Ablachung“. Diese entsteht durch die unterschiedliche Leitgeschwindigkeit der in der
Nerfenfaser liegenden Axone. So treffen die erzeugten einzelnen APs nach einer gewissen Distanz nicht mehr
exakt zur selben Zeit ein, wie es im linken Schaubild der Fall ist sondern über einen Zeitraum verteilt der mit
der Distanz zur Reizquelle immer größer wird. Dies führt zur Abflachung des abgeleiteten SAPs.
Tierphysiologischer Kurs / Versuch A Nervenphysiologie / Gruppe B2D / Tübingen 2004
9
7. Bestimmung der Refraktärzeit beim
Froschnerv
7.1 Aufbau/Methoden:
Die Refraktärzeit eines Nerven ist die Zeitspanne, in der er überhaupt nicht (absolute
Refraktärzeit) oder aber nur mit höheren Reizamplituden (relative
Refraktärzeit) erneut erregt werden kann.
Zur Messung werden zwei Reize (Doppelreize) gesendet, deren zeitlicher Abstand
(Doppelreizabstand) variiert werden kann. Mit dem zweiten Reiz wird das refraktäre Verhalten
des Nervs nach dem ersten Reiz bestimmt.
7.2 Ergebnisse:
Zeit: 0,2ms
AP: 100mV
Reiz: 2V
Zeit: 0,5ms
AP: 2mv
Tierphysiologischer Kurs / Versuch A Nervenphysiologie / Gruppe B2D / Tübingen 2004
10
AP: 20mV
Reizabstand [ms] 0,3ms
SAP [mV]
0mV
4ms
60mV
1,5ms
2mV
Schwelle
absolut/
relativ
16ms
80mV
Ende
relativ
7.3 Diskussion:
Die gemessene absolute Refraktärzeit lag bei 1.5 ms Dies ist die Zeit in der die Na+ Kanäle der
Membran zeitlich und mechanisch gesteuert geschlossen sind um das Potential an der Membran,
durch den K+ Ausstrom, unter den Schwellwert sinken zu lassen da sonst durch das anliegende
Potential schon beim Ausstrom der K+ Ionen ein erneutes AP ausgelöst würde. Die relative
Refraktärzeit die zwischen 1.5 und 16 ms ist die Zeit in der durch den erhöhten K+ Ausstrom
beim Vorhergehenden AP das Membranpotential Hyperpolarisiert wird und somit ein größerer
Reiz notwenig ist um ein erneutes AP zu erzeugen.
Tierphysiologischer Kurs / Versuch A Nervenphysiologie / Gruppe B2D / Tübingen 2004
11
8. Umwandlung des diphasischen SAPs in ein
monophasisches SAP
8.1 Aufbau/Methoden:
Diphasisches SAP: Die Erregungswelle wandert entlang der Axone über zwei Ableitelektroden
hinweg. Zuerst wird die erste Elektrode und dann die zweite Elektrode negativ gegenüber der
jeweils anderen.
Monophasisches SAP: Die zweite Elektrode wird an eine unerregbare Stelle des Nerven gelegt.
Der Nerv wird zwischen den beiden Ableitelektroden dadurch unerregbar gemacht, dass er dicht
vor der zweiten Elektrode mit einer Pinzette kräftig gequetscht wird.
8.2 Ergebnisse:
Reiz: 100mV
AP: 100mV
Zeit: 0,5ms
8.3 Diskussion:
Durch das Abklemmen des Nerv zwischen der ersten und der zweiten elektrode kann das AP die
zweite Elektrode ncith mehr erreichen und die Ableitelektroden werden nur ein mal negativ zu
anderen gepolt. Man erkennt dies gut daran, dass auf dem Schaubild lediglich ein ausschlag
nach unten zu sehen ist und anschließend nicht (wie in den vorherigen Schaubildern) ein
leichterer Ausschlag nach oben.
Tierphysiologischer Kurs / Versuch A Nervenphysiologie / Gruppe B2D / Tübingen 2004
9. Leitungsanästhesie am peripheren Nerven
9.1 Aufbau/Methoden:
Lokalanästhetika sind Medikamente, die eine reversible Blockade der Nervenleitung bewirken.
Der Nerv wird in der Ableitkammer im Bereich zwischen Reiz - und Ableitelektroden
mit Xylocain besprüht. Dann wird im Abstand von 30 Sekunden mehrere Messungen gemacht
12
9.2 Ergebnisse:
Messreihe:
0,5ms Reiz: 1V AP: 100mV
9.3 Diskussion:
Man sieht dass die sedative Wirkung erst nach ca. 4 min. eintritt, und auch das nicht zu 100%
Im Gegensatz zu anderen Betäubungsmitteln wie zb Äther ist Xylocain nicht für eine
Vollnarkose geeignet und wird auch nur zur lokalen Betäubung von Schleimhäuten verwendet.
Tierphysiologischer Kurs / Versuch A Nervenphysiologie / Gruppe B2D / Tübingen 2004
13
10. Anhang
10.1 Quellenangaben:
Soweit nicht gesondert darauf hingewiesen ist, sind alle Bilder/Abbildungen selbst angefertigt
(Fotos während dem Versuch, sowie eingescannte Oszilloskopausdrucke)
Für das biologische Hintergrundwissen sind folgende Bücher verwendet worden:
Prof. Werner A. Müller, Tier und Humanphysiologie, Springerverlag 2. Auflage
Neil A. Campbell, Biologie, Spektrum, 1997
Tierphysiologischer Kurs / Versuch A Nervenphysiologie / Gruppe B2D / Tübingen 2004

View File

@@ -0,0 +1,172 @@
Reaktionskinetik
Versuchsdurchführung
Vor dem Versuch wurde vom Betreuer die Referenzlösung, bestehend aus 2650µl Puffer, 100µl Semicarbazid-HCl, 200µl NAD und 10µl GSH, in die Referenzküvette pipettiert und der Nullabgleich des Spektrometers durchgeführt.
Wir führten 11 Enzymtests durch. Zunächst wurden 2500µl Puffer, 100µl Semicarbazid-HCL, 200µl NAD, 10µl GSH und 100µl Ethanol-Testlösung gemischt und zum Temperaturausgleich im Spektrometer äquibriliert. Danach wurde die entsprechende Menge an Ethanol hinzugegeben. Im ersten Versuch 0µl Ethanol hinzugegeben und in den weiteren Versuchen immer 10µl mehr. Das Gemisch wurde dann in den Spektrometer gegeben und 240s lang die Extinktion gemessen.
Auswertung
Auswertung 1)
Ethanol Volumen V [µl]
Stoffmenge Ethanol n [µmol]
ges. Probenvolumen V [ml]
Ethanol-konzentration cs [mmol/l]
1/Ethanol- konzentration 1/cs [l/mmol]
0
0,00
2,96
0,00
inf
10
173,28
2,96
58,54
0,0171
20
346,56
2,96
117,08
0,0085
30
519,84
2,96
175,62
0,0057
40
693,12
2,96
234,16
0,0043
50
866,40
2,96
292,70
0,0034
60
1039,68
2,96
351,24
0,0028
70
1212,96
2,96
409,78
0,0024
80
1386,24
2,96
468,32
0,0021
90
1559,52
2,96
526,86
0,0019
100
1732,80
2,96
585,40
0,0017
Tabelle 1: Messprotokoll I
Ethanol Volumen V [µl]
?E/?t (min-1)
v0 (µmol l-1 min-1)
1/v0 (l min µmol-1)
v0/cs (10-3 min-1)
0
0,0084
0,00026
3846,15
Inf
10
0,0101
0,00034
1515,15
0,000002
20
0,1926
0,00554
180,50
0,000019
30
0,4092
0,01148
87,10
0,000027
40
0,4385
0,01196
83,61
0,000022
50
0,6109
0,01683
59,41
0,000024
60
0,6084
0,01665
60,06
0,000020
70
0,6593
0,01817
55,03
0,000018
80
0,6354
0,01738
57,53
0,000016
90
0,7997
0,02272
44,01
0,000017
100
0,8794
0,02440
40,98
0,000017
Tabelle2: Messprotokoll II (?E/?t wurde durch lineareRegression bestimmt)
Auswertung 2)
Diagramm 1: Lineweaver-Burk
Steigung m = 0,00000965* 10-3 * min-1
y-Achsenabschnitt b = 0,00288 µmol/l
KM = 0,0033 mmol/l
v0,max = 347,22 l*min/µmol
Auswertung 3)
Diagramm 2: Eadie-Hofstee
Steigung m = -861,76 *10-3 *min-1
y-Achsenabschnitt b = 0,37 µmol* l-1 * min-1
KM: = 861,76 mmol*l-1
v0,max: = b
Auswertung 03)
Diagramm 3: Michaelis Menten
KM: 0,015
V0,max: 0,03
Auswertung 04)
Die Michaelis-Menten-Auftragung ist sehr einfach, da die maximale Geschwindigkeit und die Konstante einfach aus der Formel abgelesen werden können, somit ist diese Variante genauer und erfordert kaum Rechenzeit.
Bei Lineweaver-Burk und Eadie-Hofstee werden die Werte mit Hilfe der Ausgleichsgeraden ermittelt. Hierbei muss beachtet werden, dass die Ausgleichsgeraden verschieden aufgetragen werden können (z.B. linear oder logarithmisch). Dadurch ergeben sich unterschiedliche Werte und es können durch ungenaues Ablesen Rundungsfehler entstehen.
Auswertung 05)
Die Geschwindigkeitskontante k hängt exponentiell von der Umgebungstemperatur der Lösung T ab, in folgender Form: k=k0 exp(-EA/RT). Diese Konstante fließt in die Michaelis-Menten-Gleichung ein, welche wiederum die Reaktionsgeschwindigkeit beeinflusst. Eine Änderung der Temperatur bedingt also eine Änderung der Reaktionsgeschwindigkeit. Da im Versuch Lösungen mit verschiedenen Temperaturen gemischt wurden, finden kontinuierliche Änderungen der Temperatur statt; um dieses zu verhindern wird die gesamte Lösung temperiert, bevor die Reaktion startet. Damit ist gewährleistet, dass keine Änderung der Temperatur mehr stattfindet und somit die Reaktionsgeschwindigkeit nur noch von der Änderung der Stoffmenge abhängt.

View File

@@ -0,0 +1,855 @@
Protokoll
Psychophysik
Reflexe
Sensomotorik
Dienstag 30.03.2004
Gruppe B2D
Christoph Schwörer
Daniel Kersting
Senid Maslesa
Prolog
Die Psychophysik, auch subjektive Sinnesphysiologie genannt, unterscheidet sich zur
objektiven Sinnesphysiologie darin, dass die durch Reize verursacht Erregung nicht im
Körper direkt (z.B. Versuch Insekten ERG) gemessen werden sondern die Stärke der
Empfindung durch eine Versuchsperson angegeben wird.
Trotz der Subjektivität der Messungen existieren aber auch in der Psychophysik bestimmte
allgemein gültige Gesetzte und Rechenregeln. So setzt beispielsweise die Stevensche
Potenzfunktion (E = k(S-S0)n mit E = Empfindungsintensität; n = ein vom Receptortyp
abhängiger positiver Wert; S = Reizwert; S0 = Schwellwert) den Empfindungswert zum
Reizwert in Proportion.
Es gibt aber auch Reize die nicht nur zu einer Empfindung führen sondern auch zu einer
direkten (meist Motorischen) Reaktion des Körpers führen. Diese unwillkürlichen, mit kurzer
Latenz ablaufenden Reaktionen werden Reflexe genannt.
Versuchsteil I:
Bestimmung der absoluten Hörschwelle des Menschen
Einleitung
Der Mensch ist in der Lage Frequenzen von ca. 15 Hz bis 17-21 kHz wahrzunehmen. Der
beim Sprechen verwendete Bereich („Sprachbereich“) liegt hierbei zwischen 300 Hz und
5000 Hz.
Nicht jede Frequenz ist bei gleich niedrigem Schalldruckpegel hörbar. So erfordert es
wesentlich geringeren Schalldruckpegel um Frequenzen im Sprachbereich wahrzunehmen als
außerhalb dieses Frequenzbereichs.
Der minimale Schalldruckpegel ab dem eine bestimmte Frequenz hörbar ist wird Hörschwelle
genannt.
Methode
In diesem Versuch wird der Versuchsperson ein Köpfhörer aufgesetzt der mit einem
Reizgenerator verbunden ist. Dieser kann Impulse in einem Frequenzbereich von 15 Hz bis
>30 kHz bei verschiedenem Schalldruck erzeugen.
Nun werden verschieden Frequenzen, anfangend bei 20 Hz (50, 100, 200, 500, 1000, 2000,
5000, 10000 Hz) bei einem eindeutig hörbaren Schalldruckpegel eingestellt und anschließend
der Schalldruckpegel gesenkt bis die Frequenz von der Versuchsperson eindeutig nicht mehr
wahrgenommen werden kann. Anschließend wird der Schalldruckpegel wieder gesteigert bis
die Versuchsperson die Impulse wieder hören kann (Dieser eingestellte Schalldruckpegel
sollte jedoch geringer liegen als der zuvor eingestellte maximale Pegel). Diese Prozedur wird
solange auf und ab wiederholt bis man eine Genauigkeit von 0.5 dB SPL erreicht hat. Das
Angewandte Verfahren wird als „Staircase Prozedur“ bezeichnet.
Die bei den verschiednen Frequenzen gemessenen Schalldruckpegel werden zur Auswertung
protokolliert.
Anschließend werden noch die oberen und unteren absoluten Hörschwellen gemessen indem
ein Schalldruckpegel von 95 dB SPL am Gerät eingestellt wird und die Frequenz solange
gesteigert bzw. gesenkt wird, bis kein Ton mehr hörbar ist.
Ergebnisse:
100
50
0
-50
20
50 100 200 500 100 200 500 100
Beide Ohren 55
52
linkes Ohr
54
rechtes Ohr
39
40
42
24
17
19
Abb. 1.1
25 -1,5 -11 -11 -17 -9,5
-4
19
-6
22
-12 -14
-8
-4
-9
-2
3
-5
Erwartungsgemäß war das Hörvermögen der Testperson im Sprachbereich am besten, d.h. es
wird der niedrigste Schalldruckpegel benötigt um noch etwas wahrzunehmen. Außerhalb des
Sprachbereichs steigt die Kurve zu beiden Seiten hin an.
Die absolute obere Hörschwelle der Testperson lag bei 20700 Hz.
Die absolute untere Hörschwelle der Testperson lag bei 15 Hz (Niedrigst mögliche
Einstellung des Testgerätes, es ist also durchaus möglich das die tatsächliche absolute untere
Hörschwelle noch tiefer liegt als im Versuch bestimmt.)
Diskussion:
Wenn man die Kurve aus Abb. 1.1 mit Literaturwerten vergleicht lässt sich eine grobe
Übereinstimmung im Kurvenverlauf feststellen. Allerdings liegen die gemessenen Wert um
ein Stück nach unten verschoben. Weiterhin fällt auf, dass bei dem Versuch mit beiden Ohren
meist ein besseres Ergebnis erzielt wurde als nur mit einem Ohr.
Die absolute Hörschwelle der Testperson liegt sehr hoch jedoch noch gut im Bereich des
Möglichen.
Versuchsteil II:
Akustische Richtungslokalisation beim Menschen
Einleitung:
Um auf Gefahren außerhalb seines Gesichtsfeldes reagieren zu können ist es unverzichtbar
eine ungefähre Richtung des gehörten angeben zu können. So gehört die
Richtungslokalisation zu einer der wichtigsten Fähigkeiten des Menschen. Dies wird
ermöglicht durch das „binaurale“ hören, also das hören mit 2 Ohren. Das binaurale hören wird
durch 2 Faktoren bestimmt. Zum einen durch die Zeitliche Verzögerung mit der ein
akustischer Reiz an beiden Ohren wahrgenommen wird. Wenn ein Geräusch beispielsweise
von rechts kommt so wird der Reiz zuerst am rechten Ohr und mit kurzer Verzögerung erst
am linken Ohr wahrgenommen. Der zweite bestimmende Faktor ist die Lautstärke des
Geräuschs, also der Schalldruck im Ohr. Der Reiz scheint immer aus der Richtung zu
kommen aus der er lauter wahrgenommen wird. So ein Reiz der auf dem linken Ohr lauter
wahrgenommen wird als auf dem rechten, „von links“ kommen.
Teil 1: Bestimmung der binauralen Zeitdifferenzschwelle
Methode:
Der Versuchsperson werden Kopfhörer aufgesetzt die mit einem Reizgenerator verbunden
sind der ein kurzes Klicken erzeugt. Am Reizgenerator lassen sich für den rechten und linken
Kanal der Kopfhörer verschiedene Verzögerungen (Im Bereich zwischen 0-9999µs)
einstellen. Nun wird am Reizgenerator ein fester wert von 1000µs Verzögerung für das rechte
Ohr eingestellt und die Verzögerung am linken Ohr um +- 100µs Variiert. Die
Versuchsperson, die nicht weiß wie das gerät eingestellt ist, muss nun angeben ob das
Geräusch von links oder rechts kommt. Die Angabe „Mitte“ ist hierbei nicht zulässig.
Protokolliert werden nun die Angaben der Versuchsperson bei zufällig eingestellten werden
im oben angegeben Testbereich und anschließend ausgewertet.
Ergebnisse:
Abb. 2.1
Wie man aus dem Schaubild (Abb. 2.1) erkennen kann ist beim „Mittelpunkt ein
Vorzeichenfehler aufgetreten. Dieser liegt bei 22 und nicht bei 22. Als Kriterium für ein
„sicheres“ Ergebnis bei einem psychophysischen Versuch wird eine 75% Schwelle gesetzt.
Bei der Versuchsperson liegt diese schwelle bei 28,24µs nach links und 14,76µs. Die
binaurale Zeitdifferenzschwelle entspricht dem Zeitabstand der subjektiven Mitte zum 75%-
Wert, für den Probanden also 6,75µs
Der Winkel zur Vorrausrichtung berechnet sich wie folgt:
sin α=∆l/d
∆t=∆l/c (cid:198) ∆l=∆t*c
Also ist: sin α= (∆t*c)/d, wobei:
α der gesuchte Winkel zur Vorrausrichtung,
∆t die Zeitverzögerung (in diesem Fall 6,75µs),
c die Schallgeschwindigkeit in der Luft (330m/s) und
d der durchschnittliche Ohrenabstand beim Menschen (20 cm) ist.
Es ergibt sich: sin α = (6,75µs * 330m/s) / 20cm = 0,0111 (cid:198) α =0,64°
Teil 2: Die relative Bedeutung von Schalldruck und Laufzeitunterschieden für das
Richtungshören beim Menschen („trading Messung“)
Methode:
Wie auch beim vorigen Versuch werden der Versuchsperson auch diesmal Kopfhörer
aufgesetzt und ein seitlich verzögertes Geräusch vorgespielt. Allerdings wird diesmal nicht
die Verzögerung verändert sondern die Lautstärke auf der „verzögerten“ Seite, solange bis die
Versuchsperson angibt, das Geräusch käme aus der Mitte. Die so ermittelten Werte werden in
ein Diagramm eingetragen und anschließen wird eine Ausgleichsgerade ermittelt und
eingezeichnet.
Ergebnisse:
Tabelle 1.1
Verzögerung
-100
-50
0
50
100
1
-9
-7,5
0
3
1,5
Durchgänge
3
-7,5
-1,5
4,5
0
7,5
2
-6
-4,5
0
3
1,5
4
-9
-3
3
4,5
7,5
5
-6
-6
1,5
6
4,5
Mittelwert
-7,5
-4,5
1,8
3,3
4,5
0
50
100
150
6
4
2
0
-2
-4
-6
-8
-10
-150
-100
-50
Abb. 2.2
Diskussion:
Versuchsteil III:
Reflexe motorische Reaktionen auf Sinneseindrücke
Einleitung:
Als Reflex bezeichnet man eine direkte, nur schwer Ermüdbare und willentlich nicht
unterdrückbare Reaktion eines Organismus auf einen äußeren Reiz. Dieser Reflex läuft bei
gleichem Reiz immer gleich ab. Durch sehr kurze Verschaltungswege im Nervensystem
laufen Reflexe sehr schnell ab. Man Unterscheidet hierbei zwischen monosynaptischen und
polysynaptischen Reflexen.
Bei einem monosynaptischen Reflex findet die Verschaltung direkt im Rückenmark über eine
einzige Synapse statt. Bei einem polysynaptischen Reflex findet die Verschaltung über
mehrer Synapsen im Rückenmark statt. Bei manchen polysynaptischen Reflexen können diese
auch erst im Hirn verschaltet werden.
Ein
durch
einen
Receptor
Wahrgenommener Reiz wird über
einen Nerv
in das Rückenmark
geleitet und dort Verschaltet. Der
Zellkörper dieses „afferenten“ Nervs
liegt
im
Spinalganglion Von
welchem aus das Axon des Nervs
durch die hintere Wurzel
ins
Rückenmark geleitet wird. Seine
Synaptische Endigung hat der Nerv
Im Vorderhorn der „grauen
Substanz“. Von dort aus wird der
Abb 3.1
Reiz über einen Nerv der an der „vorderen Wurzel“ aus dem Rückenmark austritt an den
Effektor weitergeleitet. Bei einem sogenannten Eigenreflex liegen Receptor und Effektor im
gleichen Organ. Bei einem Fremdreflex liegen Receptor und Effektor in unterschiedlichen
Organen..
Methode:
Durchgeführt wurde der sogenannte Patellarsehnenreflex. Hierbei wurde die Ferse der
Versuchsperson mit Kontaktgel bestrichen und mit einem Elektrischen Kontakt in
Verbindung gebracht. Um die Kontaktschleife zu schließen musste die Versuchsperson den
zweiten Kontakt in der Hand halten. Die Zwei Kontakte waren über einen Zeitmesser
miteinander verbunden. Nun wurde der Versuchsperson mit einem Hammer an dem sich ein
dritter Kontakt befand unterhalb der Kniescheibe auf die Pattelarsehne geschlagen. Dieser
Kontakt setze den Zeitmesser in Gang. Die Unterbrechung der Kontaktschleife durch das nach
vorne zucken des Unterschenkels durch den ausgelösten Reflex beendete die Zeitmessung
wieder. In diesem Zustand wurde der Versuch 16 mal wiederholt und die Ergebnisse notiert.
(Tabelle 3.1) Anschließend musste die Versuchsperson den Ganzen Körper in eine
Grundspannung versetzten und der Versuch wurde weitere 16 Male wiederholt und die
Ergebnisse notiert.(Tabelle 3.1) Anschließend wurde das Knie der Versuchsperson mit dem
Hammer nur berührt um der Versuchsperson ein Signal zu geben ohne einen Reflex
auszulösen. Die Person sollte so schnell wie möglich den Kontakt der Ferse unterbrechen,.
Dieser Versuch wurde weitere 16 mal wiederholt und die Ergebnisse notiert.(Tabelle 3.1).
Tabelle 3.1
Durchgänge
entspannt
116
182
154
152
177
218
255
143
210
218
155
236
259
267
179
322
202,69
51,93
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
Mittlewert
Standartabweichung
Diskussion:
Reaktionszeit
angespannt willentlich
146
156
128
118
113
122
154
126
133
134
120
189
118
220
161
137
142,19
27,13
310
291
473
338
312
364
375
431
312
379
377
363
468
357
480
310
371,25
58,21
Man erkennt deutlich die Abweichungen zwischen entspannter und angespannter
Körperhaltung. Diese liegen weit jenseits der 5% die allgemein als „Standartabweichung“
zulässig sind. Beim Wilkoxon Verfahren lagen beide Messreihen außerhalb dieser
Maximalabweichung. Die Messergebisse sind im unwillkürlichen Bereich recht hoch aber
noch im vertretbaren Bereich. Die willkürliche Reaktion ist erwartungsgemäß extrem niedrig.
Die starke Standartabweichung weißt auf eine erhöhte körperliche Unruhe hin.
Versuchsteil IV:
Sensomotorische Integration
Einleitung:
Methode:
Bei diesem Versuch wurde der Kopf der Testperson mit Hilfe eines Gestells so fixiert, dass
die Augen 57cm entfernt vom Bildschirm lagen. Anschließend wurde ein Infrarotsensor am
linken Auge angebracht der die Augenbewegung maß und an einen Computer weitergab. Es
wurden 4 verschiedene Versuchsreihen durchgeführt. Jeweils eine zur Linearität der
Augenbewegung, zur glatten Augenbewegung, zur Augenbewegung beim Lesen und eine zu
den Sakkaden des Auges. Beim Versuch zur Linearität musste die Versuchsperson jeweils
einen weißen Balken auf dem Monitor Fixieren der in 2° Schritten von 10° bis +10°
eingeblendet wurde fixieren. Anschließend wurde die glatte Augenbewegung in drei
Versuchen gemessen. Hierbei musste die Versuchsperson zuerst einen Weißen Punkt auf
schwarzem Hintergrund fixieren, der sich mit sinusförmiger Geschwindigkeit im 10° bis
+10° Bereich bewegte. Beim 2. Versuch wurde der Monitor abgeschaltet und die
Versuchsperson sollte versuchen die Augenbewegung im vorhergehenden Versuch zu
wiederholen. Beim 3. Versuch wurde der Monitor wieder eingeschaltet und die
Versuchsperson musste den selben Punkt auf einem Strukturierten Hintergrund verfolgen.
Nun wurde der Versuchsperson zu dem Versuch der Augenbewegungen beim Lesen ein
normaler Deutscher Text eingeblendet und die Augenbewegungen beim lesen aufgezeichnet.
Anschließend wurden der Versuchsperson ein englischer Text, ein Gedicht und ein Text mit
schweren Rechtschreibfehlern eingeblendet und die Augenbewegungen wiederum
aufgezeichnet.
Ergebnisse:
9000
8000
7000
6000
5000
4000
3000
2000
1000
0
-15
-10
-5
0
5
10
15
Abb. 4.1(X-Achse: Ausrichtung [°] Y-Achse: Horiz. Augenposition[mm])
In Abb. 4.1 dargestellt ist der lineare Zusammenhang zwischen tatsächlicher und gemessener
Augenbewegung. Man erkennt auf beiden Seiten der Achse ein recht lineares Messergebnis.
Die Verschiebung der Geraden nach links lässt auf eine Verschiebung des Messmittelpunktes
schließen.
Abb. 4.2 (Lineare Augenbewegung bei eingeschaltetem Bildschirm)
Wie man deutlich erkennt braucht die Versuchsperson ca. 1 Sekunde um den Punkt zu
fokussieren und dem Punkt mit den Augen zu folgen. Ist dies aber erst einmal erfolg bleibt die
Augenbewegung, bis auf einen kurzen Ausschlag bei Sekunde 6 sehr nah der tatsächlichen
Bewegung des Punktes. Dieser kurze Ausschlag wird sehr vermutlich ein kurzer Lidschlag
der Testperson sein.
Abb. 4.3 (Lineare Augenbewegung bei ausgeschaltetem Monitor)
Man erkennt deutlich, dass die Augenbewegung nicht mehr linear sondern sehr sprunghaft
verlief. Die Geschwindigkeit des Punktes wurde recht gut eingehalten jedoch wird der
Ausschlag nach rechts bzw. links zum Ende hin immer größer.
Abb. 4.4 (Lineare Augenbewegung auf strukturiertem Hintergrund)
Im Vergleich mit Abb. 4.2 sieht man, dass es ca. die doppelte Zeit, also 2 Sekunden, dauert
bis die Versuchsperson den sich bewegenden Punkt auf dem Strukturierten Hintergrund
ausgemacht hat und ihn fokussiert. Ist dies aber einmal geschehen folgt der Fokus fast ideal
dem Punkt.
Abb. 4.5 (Augenbewegung bei einem deutschen, recht einfachem Text)
Man erkennt, dass beim lesen sas Wort meist sehr schnell mit dem Auge überflogen wird, der
Fokus dann aber eine kurze Zeit am Wortende bleibt. Da es sich um einen recht einfachen
Text handelt gibt es so gut wie keine Rücksprünge innerhalb einer Zeile um einen Teil erneut
zu lesen.
Abb. 4.6 (Augenbewegung bei einem englischen normal schweren Text)
Auch dieser Text konnte von der Versuchsperson ohne größere Schwierigkeiten gelesen
werden. Es gibt jedoch einige stellen an denen der Fokus des auges zurück sprang um einen
Teil des bereits gelesenen erneut zu lesen. Man kann daraus schließen dass die
Versuchsperson mit dem englischen nicht so vertaut ist wie mit Deutsch und bei manchen
Worten Verständnis- bzw. Identifikations-Probleme auftreten.
Abb. 4.6 (Augenbewegung beim lesen eines Gedichts)
Man erkennt, dass das Auge beim lesen des Gedicht länger auf einem Wort verweilte und
auch öfters zurück sprang. Dies lässt sich wohl damit erklären, dass es beim lesen des
Gedichts länger dauert das aktuelle Wort in Zusammenhang mit dem ganzen Text zu bringen,
was aber auch nicht immer sofort gelingt, so dass Teile des Textes erneut gelsen werden
müssen um den Sinn zu erkennen.
Abb. 4.7 (Augenbewegung beim lesen eines Textes mit schweren Rechtschreibfehlern)
Es wird hier ein deutlicher Unterschied zu den obigen Texten bemerkbar. Für die einzelnen
Worte benötigte die Versuchsperson wesentlich länger und sie musste sehr oft bereits gelsene
Teile wiederholen. Hier wird auch eine deutliche Zeitverschiebung zwischen „lesen“ und
„verstehen“ erkennbar da oft Worte mit Fehlern überlesen werden und erst am Ende des
Satzes springt das Auge auf die fehlerhafte Stelle zurück.
Abb. 4.8 (Aufzeichnung der Latenz der Sakkaden des Auges bei 10° bis +10°)
Man erkennt eine deutliche Ballung der Messewerte bei ca. 150ms was darauf hindeutet, dass
es sich um einen unwillkürlichen Reflex handelt und nicht um eine willentliche Handlung.
Betrachtet man die Mittelwerte so lässt sich ein leichter Anstieg von links nach rechts
feststellen was vermutlich an der Messung am linken Auge liegt.
Abb. 4.9 (Links: Geschwindigkeit der Augenbewegung in Abhängigkeit der Amplitude
Rechts: Latenz der Augenbewegung in Abhängigkeit der Amplitude)
Auf dem linken Schaubild erkennt man, dass die Geschwindigkeit mit derr sich Auge bewegt
unabhängig von der Strecke ist die es zurücklegen muss. Auf dem rechten Schaubild erkennt
man die Latenz bis zur erneuten Fokussierung des Auges auf einen Punkt im Abstand der
Amplitude zur ursprünglichen Fokussierung des Auges. Bringt man die beiden Schaubilder in
Verbindung so lässt sich feststellen, dass je größer die Amplitude, also je weiter der „neue“
Punkt als Abbild auf der Netzhaut von der Fovea (also dem Ursprünglichen Fokus des Auges)
entfernt ist, die Latenz bis sich das Auge reagiert in einer logarithmus-ähnlichen Kurve
abgebildet wird. Dies liegt vermutlich an der immer größer werdenden Querverschaltung der
Sehzellen je weiter diese von der Fovea entfernt liegen, da es dann länger dauert bis der neue
Fokuspunkt „errechnet“ wurde.
4.10 (Abbildung der Sakkaden des Auges gegen [s])
Hier sieht man alle Sakkaden des Auges der Testperson übereinandergelagert. Man erkennt
deutlich eine Verdichtung etwas ober- und unterhalb der Stellen an denen eigentlich der Punkt
aufgetaucht ist, dies lässt sich auf eine ungenügende Kalibrierung des Messgeräts und vor
allem auf eine zu starke Verstärkung der Messdaten zurückführen. Die ungefähre Latenz liegt
bei 150-200 ms. Dies berechnet sich aus dem Auftauchen des Punktes (roter Strich bei 0.2s)
und dem Beginn der Augenbewegung (bei ca. 400ms). Vgl. hierzu Abb. 4.8.
Abb. 4.11 (Durchschnittliche Genauigkeit der Sakkaden bei gegebenem Auslenkungsgrad)
Das alle gemessenen Durchschnittswerte im positiven Bereich liegen verstärkt die
Vermutung, dass die Verstärkung am Messgerät zu stark eingestellt war. Vgl. hierzu Abb.
4.10.
Literatur:
Adolf Faber, Der Körper des Menschen, 13. Auflage
N.A. Campbell, Biologie, 6. Auflage

View File

@@ -0,0 +1,457 @@
Seminar System Immunology
Experimental techniques to acquire
highthroughput quantitative data
Author
Christoph Schwörer
Betreuer
Sven Nahnsen
13.11.2008
1. Introduction
In the past few years System Biology has emerged from the field of computational biology. The
processing power of new computers and the development of new techniques led to new
approaches in the understanding the complete picture of what happens inside a single cell or
an entire organism. Instead of looking at one particular reaction, interaction of between single
proteins or even a whole pathway we now want to look at the status of a whole cell at once.
Thus we can come to understand the interaction of whole Pathways or the complete cellular
reaction to a certain stimulus.
But to build these new models we need reliable statistics. In order to get to these reliable
statistics we need many sets of data from different sources. One of the reasons is why there
have been several new techniques developed to acquire data in huge amounts. Which is why
they are called high throughput methods. Because they process whole experiments at once,
like screening the genome for a certain sequence. This report will now give an introduction to
the basic techniques used to prepare these high throughput methods as well as an introduction
to the most important high throughput methods.
2. Basic techniques
In order to conduct high throughput experiments we have to prepare them carefully. This
means we have to separate cells from one and another if we want to test only certain cells with
specific properties. Or we have to separate certain compartments within a cell if we want to
test them alone. On the other hand we have to provide certain cells with these wanted
properties in order to do comparison tests. In this chapter we will now discuss the basic
techniques used to prepare high throughput experiments.
2.1 Restriction Enzymes / Gel Electrophoresis
Gel electrophoresis can be used for
two different purposes. On the one
hand it can be used to identify the
relationship between different cell
lines on the other it can be used to
break down the isolate short strands
of DNA for further use.
The first step in this procedure is to
break down the very large strands of
cellular DNA into short fragments.
This is accomplished by restriction
enzymes.
enzymes
Restriction
recognize short sequences of double
stranded DNA, which are typically
about 10 to 12 basepairs long, and
these specific
cut
sequences. There exist about several hundred different restriction enzymes which all have
different recognition sites.
Figure 1: Agarose Gel with luminescent DNA strands
the DNA at
After the DNA is completely digested by a restriction enzyme the solution is put on an agarose
gel. The gel is then applied with an electrical field so DNA strands are pulled to the electrodes.
In dependency of their length and charge the different DNA strands will travel at different
speed so that after a given time they separate and reach different points in the gel. With the
addition of luminescent chemicals the strands can be made visible so that they form a pattern
of strands on the agarose gel (see figure 1)
2.2 1D/2D Protein Gels
Gel electrophoresis can not only be used to
separate DNA strands but it can also be used
to separate proteins. The problem is that
there are so many proteins within a cell with
approximately the same size that it is almost
impossible to separate them by size only.
That is why one has to use another criterion
to separate the proteins further. In this case
2D electrophoresis uses
the different
isoelectric points of the proteins which they
reach at different phvalues (OFarrel 1975).
In the procedure the first step is to linearize
the proteins because in their natural tertiary
structure they wont fit through the pores of
the gel. So all the intramolecular bonds which
give the protein its form have to be broken.
(E.g. HH bonds or sulfuric bonds) The next step is to separate the proteins by size as it is done
with the DNA on a polyacrylamid gel which is applied with an electrical field. After the second
step another gel with a ph gradient is put on the first and because of their charge the proteins
begin to travel to their isoelectric point. Afterwards the gel with the previously luminescent
marked proteins is visualized.
Figure 2: 2D Protein gel. Each dot represents one protein.
2.3 Cloning Vectors an DNA Libraries
Cloning Vectors are short DNA fragments (up to 19 kbp), as for example the ones we have
retrieved with the restriction enzyme/gel electrophoresis technique. To analyze these DNA
fragments and the genes on them we have to bring them into a living environment. Because
DNA is the same in all living beings they can be inserted into bacteria which then express the
proteins encoded on the DNA strands.
This is achieved by transformation where the DNA fragments, which are called cloning vectors,
are added to a solution of bacteria cells. The cloning vectors can now penetrate the cells
surface and get into the cell. There the original bacterial DNA plasmid is cut with the same
restriction enzyme used to obtain the cloning vectors. Now there is a chance that the cloning
vector is inserted into the plasmid by recombining the cut locations called sticky ends.
After the cloning vector is inserted the cells proliferate and are later separated by the newly
resistances)
new
obtained
properties
antibiotic
through
DNA.
(e.g.
the
2.4 Hybridization and Blotting
Another basic problem is to identify whether a specific DNA sequences or protein is present in a
given DNA/protein sample.
For DNA the technique at hand is the so called Southern Blotting (Southern 1975). A given DNA
sample is first put through a gel electrophoresis to separate the DNA strands by size and is then
washed on a nylon patch to fixate the strands. Afterwards the nylon patch is incubated at up to
80°C to break the hydrogen bonds so that the DNA gets single stranded. Now the nylon patch is
washed again with a solution of hybridization probes, which are short fragments of the
complementary DNA we want to test for. These probes are radioactively marked and will
hybridize with the single stranded target DNA. Now the nylon patch is pressed against a Xray
film where the hybridized probes will be visualized.
To test for the existence of specific proteins a similar technique is used which is named Western
Blotting. Like Southern Blotting first the given protein sample is separated using 2D
electrophoresis and then washed onto a carrier patch. In order to test for the targeted protein
this technique uses marked antibodies as probes. Those marked probes can then again be
visualized with an Xray film.
2.5 Centrifugation
One of the oldest techniques used for the separation of cell compartments is centrifugation.
There the centrifugal force is used for the separation. More exactly the fact that molecules with
different density will have different sedimentation rates. So that after a given time the
compartments will be separated. Hereby the Sedimentation rate is measured in Svedenberg
m
units:
1(
r
r
)
/
=
S
V
²
w
r
=
par
sol
f
Where m is the mass of the particle, f the friction of the medium and r sol/ r par the density of
the medium/particle
2.6 Column Chromatography
In column chromatography the molecules one wants to separate are washed through a solid carrier
material. Because of the different size and shape of the different molecules they arrive at different
times at the bottom of the column. A more sophisticated method is also available where the carrier
material is spiked with antibodies for a target protein. The antibodies will bind to target protein and
hold it back while everything else is washed through. Then a solution is washed through which will
loosen the protein form the antibodies and the protein can be retrieved.
-
3. Advanced Techniques
After having prepared the proteins or DNA we want to test we now need to have methods so
that we can retrieve data from a large number of parallel experiments. To get confirmation or
even more data to create statistics we need to do several of the same experiment at once. The
techniques used for this purpose are called high throughput experiments because of the sheer
amount of parallel processing and data we get.
3.1 PCR (Polymerase Chain Reaction)
PCR is not an experiment to retrieve data
but more a method to amplificate DNA we
already have prepared to an amount where
it can be used in later high throughput
techniques. (Saiki et al. 1985) Simply put
PCR duplicates the amount of DNA per
cycle. The first step is to heat the DNA
solution so that the hydrogen bonds
between the two DNA strands is broken an
the DNA gets single stranded. Then primers
are added to the solution which will
hybridize with the single stranded DNA
while the solution is cooling down. Now the
DNApolymerase kicks in and extends the
single stranded DNA with primer to a new
double stranded DNA strand. This leads to the duplication of DNA with each cycle so that after
a few cycles there is sufficient DNA to use in a high throughput experiment.
Figure 3: PCR
3.2 DNA-/Protein Chips (Microarrays)
Microarrays are a newly developed method to test the expressions of thousands of genes at
once (Cahill and Nordhoff 2003). There are two different types of microarrays, DNAchips and
proteinchips. While DNA chips test for the occurrence of mRNA in a cell, proteinchips test for
the occurrence of proteins. Both methods applied to the same cell will lead to different
expression patterns because there are several factors influencing the translation from mRNA to
proteins. Both methods work in a similar way.
DNA chips are carrier spotted with cDNA primers
from exons which one can get from a DNA library.
Those chips are then incubated with DNA reversely
transcribed from the target cells mRNA. This DNA is
also marked with fluorescing dye so that the
coloring of the chip reveals the expression of the
correspondent genes. As you can see in fig.4 with the
use of different dyes one can also do comparrison
expereriments on one microarray.
Proteinchips on the other hand are carriers spotted
with binding partners for proteins which can be
other proteins, antibodies, DNA or drugs. But
proteinchips are not that easy to apply because
different proteins have different optimal conditions
(e.g phvalue) so that one has to find a sufficient
compromise to acquire usable data.
3.3 Yeast Two-hybridization
Figure 4: Heatplot of a comparative microarray with two
sources
The yeasttwohybrid system is a technique used to test if two proteins, prey and bait, interact.
(Uetz et al.2000) It uses the fact that the Gala4 Transcription factor consists of two parts. Those
two parts are fused to either of the proteins one wants to test. If bait and prey do interact they
come close together. When this happens the two parts of Gala4 TF also come close enough
together so that it can
the
promote
expression of a given
reporter gene which is
promoted by Gala4.
For screening purposes
this technique can be
Figure 5: Yeast-two-hybrid system
extended to a high
throughput technique
by adding multiple prey proteins or even multiple bait proteins.
3.4 Mass Spectrometry
Mass spectrometry allows the identification of proteins through their mass/charge ratio
(Abersold & Mann 2003). In a mass spectrometer basically the digested protein is ionized by an
ion source and the fragments are accelerated through a magnet onto a mass analyzer. The
detector then delivers a fingerprint of the
containing fragments. This fingerprint is now
compared to the precomputed theoretical
fingerprints from a protein database.
There are different methods available for
the ionization or the mass analysis. The two
methods for ionization are ESI (Electrospray
ionization) which is used to ionize proteins
out of solutions and MALD (matrix assisted
laser desorption/ionization) which is used
on proteins in dry crystals.
Figure 6: Mass spectrometer
For the mass analysis there exist four basic
types. The first is the sector field analyzer
which is depicted in fig.6. It measures the
deviation of a fragment from its trajectory
according to the fact that heavier fragments
wont be deviated so much then lighter
fragments. The second type of analyzer is the TOF (time of flight) analyzer which measures the
time between entrance in the magnetic field and impact on the analyzer. This type also bases
on the fact that heavier fragments wont accelerate so fast then lighter ones because of their
inertia. The third type is the quadrupole which allows only fragments to pass that have a
specific mass/charge ratio. The quadrupole is used to measure the quantity of the targeted
fragment. The last type is the Fourier transform ion cyclotron. Here the ions are accelerated in
circular magnetic field. It measures the radius and the frequency of the flying fragments and
computes from that the mass fingerprint. This is also by far the most accurate and sensitive
type of analyzer.
3.5 Transgenic Animals
Transgenic animals are animals whos DNA have been altered. Either by inserting foreign DNA
or by willingly cutting out specific genes. Either of both happens with the firs stem cell before it
begins to proliferate. There are two ways of getting the foreign DNA into the cell. The first is to
directly inject it into the cell, which is called DNA microinjection. The second is to use an altered
retrovirus which infects the cell.
Transgenic animals are mostly used as knockout animals where one specific gene is cut out to
identify its function.
3.6 RNA Interference
RNA interference is mechanism inhibiting DNA expression where a double stranded RNA has
been inserted into a cell (Fire et al. 1998). It is part of the cells defense system against viruses or
other genomic material. The double stranded RNA is recognized by an endoribonuclease called
DICER. DICER cuts the dsRNA into short strings (~20bps) which are then assembled to RISC
(RNAinduced silencing complex). The RISC complex then recognizes the correspondent mRNA
and cuts it into short pieces which are then digested thus inhibiting the translation of this
mRNA.
In opposition to transgenic animals this method is usable in high throughput experiments
where many cells and/or genes can be inhibited at once. The only problem with RNA
interference studies is that longer dsRNA strands lead to an interferon response in mammalian
cells. This is why in these cases synthetically produced siRNA strands are used.(Dykxoorn et al.
2003)
4. Discussion and Conclusion
As shown in the chapters above there are several techniques available to acquire high
throughput data. The most upcoming are surely the microarray and the DNA interference
techniques. What all techniques have in common is that they are very expensive to conduct
either in the individual experiment like microarrays or in the needed infrastructure and
machinery like a mass spectrometer. What they also have in common is that every one of them
needs a lot of processing power to analyze the results. Not only to fit the data into models but
simply to handle the sheer amount of data. This processing power is only available to everyone
since the last few years. As research goes on and the field of system biology will surely grow it
stands to hope that in mass production the techniques will be more affordable.
5. References
5.1 Literature
Cahill, D.J. and Nordhoff, E. Protein arrays and their role in proteomics (2003) Adv. Biochem.
Eng. Biotechnol. 83, 17787.
Dykxoorn, D.M., Nivina, C.D. and Sharp, P.A. Killing the messenger: short RNAs that silence gene
expression.(2003) Nat. Rec. Mol. Cell. Biol. 4, 457-67
E.Klipp, R.Herwig, A.Kowald, C.Wierling, H.Lehrbach
System Biology in Practice. Concepts,Implementation and Application, (2005)Wiley-VCH 109-
133
Fire, A., Xu, S., Montgomery, M.K., Kostas, S.A., Driver, S.E., and Mello, C.C. Potent and specific
genetic interference by double stranded RNA in Caenorhabditis elgeans (1998) Nature 391, 806
11
OFarrel. P.H. High resolution two-dimensional electrophpresis of proteins(1975) J. Biol. Chem
250, 4007-4021
Ruedi Aebersold & Matthias Mann
Mass spectrometry-based proteomics (2003) Nature 422, 198-207
Saiki, R.K., Scharf, S., Faloona, F., Mullis,K.B., Horn, G.T., Erlich, H.A. and Arnheim, N. Enzamtic
amplification of beta globin genomic sequences and restriction site analysis for diagnosis of
sickle cell anemia.(1985) Science 230, 1350-1354
Southern, E.M. Detection of specific sequences among DNA fragments separated by gel
electrophpresis (1975) J. Mol. Biol. 98, 503-517
Uetz, P., Giot, L., Cagney, G. Mansfield, T.A., Judson, R.S., Knight, J.R., Lockshon, D., Narayan, V.,
Srinivasan, M., Pochart, P., QureshiEmili, A., Li, Y., Goodwin, B., Conover, D., Kalbfleisch, T.,
VijayadamoDar, G., Yang, M. Johnston, M., Fields, S., and Rothenberg J.M. A comprehensive
analysis of protein-protein interaction in Saccharomyces cerivisiae (2000) Nature 403, 6237
5.2 Figures
Fig. 1: http://upload.wikimedia.org/wikipedia/commons/6/60/Gel_electrophoresis_2.jpg
Fig. 2: http://upload.wikimedia.org/wikipedia/de/b/b2/2DGel.jpg
Fig. 3: http://www.obgynacademy.com/basicsciences/fetology/genetics/images/pcr.png
Fig. 4: http://www.bio.davidson.edu/COURSES/genomics/2005/Durnbaugh/microarray.jpg
Fig. 5: http://upload.wikimedia.org/wikipedia/en/e/e4/Threehybridsystem.svg
Fig. 6:
http://upload.wikimedia.org/wikipedia/commons/b/b8/Mass_spectrometer_schematics.png

862
StilVorlagen/Splitstree.md Normal file
View File

@@ -0,0 +1,862 @@
Proseminar: Grundlagen der Bioinformatik
Thema: SplitsTree and Phylogenetic Networks
Christoph Schwörer
SplitsTree and
Phylogenetic Networks
Betreuer:
Tobias Klöpper
- 1 -
Proseminar: Grundlagen der Bioinformatik
Thema: SplitsTree and Phylogenetic Networks
Christoph Schwörer
Inhaltsverzeichnis
2.1
2.2
2.3
2.4
2.5
1. Einleitung ....................................................................................................... 3
2. Theorie............................................................................................................ 4
Evolutionäre Verbindungen in Netzwerken........................................................... 4
Die „Split De-composition“ Theorie...................................................................... 5
Buneman Bäume .................................................................................................... 6
Split decomposition................................................................................................ 7
Von schwach kompatiblen Splits zu Netzwerken .................................................. 9
3. Anwendung................................................................................................... 11
Das SplitsTree Programm .................................................................................... 11
Beispiel: mtDNA Datensatz ................................................................................. 11
Beispiel 2: HIV-1 Datensatz ................................................................................ 13
4. Quellenangaben: ........................................................................................... 15
3.1
3.2
3.3
- 2 -
Proseminar: Grundlagen der Bioinformatik
Thema: SplitsTree and Phylogenetic Networks
Christoph Schwörer
1. Einleitung
In den vergangenen Jahrzehnten ist man, nach der Entdeckung der DNA, immer
mehr dazu übergegangen Organismen nicht nur anhand ihrer phänotypischen
Eigenschaften sondern auch anhand ihres Genotyps zu vergleichen. Mittlerweile
gibt es einige gute Verfahren die die Ähnlichkeit und den Verwandtschaftsgrad
zweier oder auch mehrerer Organismen bestimmen. So ist die Maus genetisch
dem Menschen sehr ähnlich und eignet sich damit auch als Forschungsobjekt.
Um diese komplexen Verwandtschaften nun auch graphisch übersichtlich
darzustellen, benötigt man ausgereifte mathematische Verfahren.
Ein Programm, das einige dieser Verfahren, die aus einem gegebenen Datensatz
einen graphisch übersichtlichen Zusammenhang liefern, ist SplitsTree (Huson
1998), welches, wie der Name schon sagt, aus einer gegebenen Datenmenge
einen Phylogenetischen Baum oder Netzwerk aufbaut. Diese Phylogenetischen
Netzwerke können zur visuellen Analyse der erhaltenen Daten genutzt werden.
SplitsTree bietet die Möglichkeit Bäume, ähnlich dem unten abgebildeteten
Beispiel, oder Netzwerke über eine beliebige Eingabe an Taxa und den damit
verbundenen Daten zu erstellen.
- 3 -
Proseminar: Grundlagen der Bioinformatik
Thema: SplitsTree and Phylogenetic Networks
Christoph Schwörer
2. Theorie
dargestellt
2.1 Evolutionäre Verbindungen in Netzwerken
Der klassische Weg evolutionäre Zusammenhänge eines gegebenen Datensatzes
an Taxa zu veranschaulichen ist ein binärer Baum, hierbei sind interne Knoten
als mögliche Vorfahren dargestellt und die Blätter stellen die aktuell
existierenden Taxa dar.
Für den Fall, dass die verwandtschaftlichen Zusammenhänge gar keinen Baum
bilden bei dem es immer nur genau 2 Nachfahren gibt, wäre ein Baum mit einer
unbestimmten Anzahl Ästen je Knoten ein adäquates Mittel.
Aber selbst dieser Fall ist in der Biologie noch nicht allgemein genug. Als
Beispiel sei hier die Interaktion von Bakterien genannt bei denen es innerhalb
einer Generation zu Hybridisierungen und Rekombinationen kommen kann. Ein
Baum eignet sich hierbei nur bedingt um die vollständigen Beziehungen korrekt
darzustellen, da ein Baum unter der
Bedingung aufgebaut wird, dass
einmal getrennte Äste später nicht
mehr zusammen geführt werden oder
interagieren.
Dieser Fall kann, wie in Abb. 2.1,
vereinfacht
werden.
Hierbei werden die Knoten 1, 2, 3, 4
als Vorfahren und die Blätter 5, 6 und
7 als real existierende Taxa betrachtet.
Wie bei einem Baum mit einer
Wurzel geht man hierbei davon aus,
dass 1 den Ursprungsknoten darstellt. Der Unterschied zwischen diesem
Netzwerk und einem normalen Baum ist, dass es hier zu einem Ringschluss der
Knoten 1-4 kommt. Derartige Netzwerke eignen sich nicht nur für spezielle
Arten von Evolution, wie der im obigen Beispiel genannten Rekombination von
Bakterien, sondern können in all jenen Fällen verwendet werden wo es
unangebracht ist Daten in eine Baumstruktur zu zwingen. Es gibt zwar auch bei
anderen Programmen als SplitsTree die Möglichkeit sich Daten
in
verschiedenen Arten von Bäumen anzeigen zu lassen aber dennoch kann es
vorkommen, dass keiner dieser Bäume die Zusammenhänge korrekt wiedergibt.
Es mag sogar soweit kommen, dass erst in einem Netzwerk in dem Ringschlüsse
erlaubt sind die eigentliche Struktur der Evolution anschaubar und begreifbar
wird. Ein Beispiel hierfür wäre der Gebrauch von Netzwerken zur
„Phylogenetischen Analyse“ der Canterbury Tales (Barrbook et. Al. 1998.)
Die Frage die sich nun stellt ist, welche Netzwerke es gibt und für welche Arten
von Daten sie geeignet sind. So werden zum Beispiel für die Darstellung der
Evolution von mtDNA häufig median Netzwerke benutzt. Wir konzentrieren uns
hier jedoch auf eine spezielle Art des Zugangs zur Phylogenetischen Analyse,
(Abb. 2.1)
- 4 -
Proseminar: Grundlagen der Bioinformatik
Thema: SplitsTree and Phylogenetic Networks
Christoph Schwörer
dem SplitsTree Programm (Huson 1998). Die hierbei erzeugten SplitGraphen
basieren hauptsächlich auf Distanzen die mit der Split-decomposition Theorie
errechnet wurden (Bandelt, Dress 1992/1993). Dieser Theorie widmen wir uns
nun im folgenden Kapitel.
Weitere Beschreibungen hierzu findet man auch in Dress, Huson, Multon
(1996), Page, Holmes (1998), und Swafford et. Al. (1996).
2.2 Die „Split De-composition“ Theorie
Der wichtigste Punkt der Split de-composition Theorie ist, dass ein Netzwerk in
sogenannte Splits zerlegt werden kann. Würde man z.B in dem in Abb. 2.2
dargestellten Baum (TX) eine beliebige Kante entfernen, so erhielte man 2
disjunkte Teilbäume A und B. Entfernte man beispielsweise die Kante f so
erhielte man
Bipartitionen
A={1,2,3) und B={4,5}.Wie man sieht
jede Kante genau
induziert hierbei
einen Split. Die Menge aller durch die
Kanten erzeugten Splits wird Σ(X)
|Σ| genau die
ist
genannt, hierbei
Anzahl der Kanten des Baumes.
die
Zwei Splits U={A,B} und V={K,L) heißen kompatibel falls gilt:
(Abb. 2.2)
{
!
U∈∅∃
LBKBLAKA
,
,
,
U
U
U
}
U
Es muss also genau eine der Schnittmengen aus U V leer sein. Andernfalls
heißen die beiden Splits „nicht kompatibel“.
Ein Split bei dem min. eine der beiden Partitionen genau 1 Element enthält
bezeichnet man als trivialen Split.
Einen maßgeblichen Beitrag leistete 1971 Bunman indem er bewies, dass die
Vereinigung aller Splits genau dann mit der Vereinigung aller Kanten eines
Phylogenetischen Baumes übereinstimmte wenn alle Splits paarweise
kompatibel sind.
Die Vereinigung aller paarweiser kompatibler Splits stimmt genau mit der
Vereinigung aller Kanten eines Phylogenetischen Baumes überein.
Man kann um einen Baum, der die evolutionäre Entwicklung eines gegebenen
Datensatzes an Taxa darstellt, zu erstellen nach kompatiblen Splits dieser Taxa
suchen.
Zu beachten sei hier, dass es für z.B. 5 Taxa 15 mögliche Splits und für n Taxa
mögliche Splits gibt. Um einen vollständigen binären Baum
2
aufzubauen, muss man hierzu nach 2n-3 kompatiblen aus den oben genannten
n
)1
1
(
- 5 -
Proseminar: Grundlagen der Bioinformatik
Thema: SplitsTree and Phylogenetic Networks
Christoph Schwörer
(
1
n
)1
möglichen Splits heraussuchen. So gibt es zu 15 Taxa 27 kompatible
2
Splits von 16.383 möglichen. Man muss also nun eine Möglichkeit finden
möglichst einfach zu einem optimalen Ergebnis zu kommen. Am effizientesten
ist es hierbei nach auffälligen Splits zu suchen, und, obwohl es auch hierzu
mehrere Wege gibt wird im Folgenden nur auf den von Buneman (1971) weiter
eingegangen, da dieser auch gleichzeitig eine gute Basis liefert um die „Split-
decomposition“ Theorie zu verstehen.
2.3 Buneman Bäume
Um überhaupt einen derartigen Baum aufbauen zu können, benötig man eine
vollständige Distanzmatrix die jedem Paar an Taxa einen Wert zuordnet:
R →× XXd :
Man definiert β(uv|xy) über den Split S={A,B} wobei u,v ∈A und x,y ∈B als:
(
uv
β
|
xy
)
=
min(
uxd
,(
)
+
vxdvyd
),
),(
,(
+
uyd
,(
))
yxd
,((
)
+
vud
,(
))
Der Buneman Index
Sβ des Splits S ist definiert als:
2/1
min
uvβ
(
|
xy
)
über alle u,v ∈A und x,y ∈B
Beispiel:
Td
Betrachtet man den in Abb. 2.2 dargestellten Baum so ist die Distanz zweier
Taxa definiert als die Summe der Gewichtungen auf dem Weg zwischen
(2,5) = 2+3+3+1 = 9.
beiden. So ist die Distanz
Will man nun β für alle möglichen Paare eines Splits S={{1,2},{3,4,5}}
berechnen so ergibt sich
β(12,34) = 6;
β(12,35) = 6 und
β(12,45) = 12.
Somit ist der Buneman Index βS = ½ * 6 = 3.
Der wichtigste Fakt aber den Buneman hierbei herausfand ist:
Für einen Satz an Taxa für den die Distanzmatrix bestimmt ist gilt:
Die Vereinigung aller Splits für die βS > 0 gilt, sind kompatibel und lassen
sich somit als Baum repräsentieren.
Somit ist βS ein wichtiges Kriterium um zu entscheiden welche Splits wesentlich
sind und somit einen Baum konstruieren lassen.
Ein derartiger Baum, dessen Äste jeweils dem Gewicht βS der durch sie
erzeugten Splits entsprechen, wird Buneman Baum genannt. Die Entfernungen
der gewichteten Äste entsprichen hierbei den errechneten Distanzen der
Matrix d.
- 6 -
Proseminar: Grundlagen der Bioinformatik
Thema: SplitsTree and Phylogenetic Networks
Christoph Schwörer
Jede Methode die einen Baum aus genetischen Distanzen errechnet, sollte
folgenden Kriterien entsprechen:
1. Die Methode angewandt auf die genetischen Distanzen eines
gewichteten Baumes T sollte den Baum T ausgeben.
2. Die Methode angewandt auf genetische Distanzen sollte von diesen
„kontinuierlich“ abhängen. Das heißt kleine Änderungen an d sollten
auch nur kleine Änderungen an T zur Folge haben und nicht das
komplette Erscheinungsbild des Baumes ändern.
3. Es sollte möglich sein die Methode effizient zu implementieren.
4. Der ausgegebene Baum T sollte unabhängig von der Reihenfolge der
Eingabe der Taxa sein.
Dies sind zwar gute Kriterien, jedoch entsprechen selbst einige der gängigsten
Methoden zur Rekonstruktion eines Baumes aus gegebenen genetischen
Distanzen nicht diesen Bedingungen. UPGMA beispielsweise entspricht nicht
immer Kriterium 1 und Neighbour Joining (NJ) entspricht nicht immer den
Kriterien 2 und 4. Genauer beschrieben wird dies in Moulton, Steel (1999).
Obwohl der Aufbau eines Buneman Baumes allen diesen Kriterien entspricht
sind die erzeugten Bäume nicht immer vollständig aufgelöst, da, wegen der
Sortierung nach den Minima der vorkommenden β , oft zu viele Splits verworfen
werden, so dass der Baum aufgelöster erscheint als er nach den vorliegenden
Daten tatsächlich ist. Das folgende Kapitel befasst sich nun mit genau einer
solchen Möglichkeit dieses Problem zu beheben, der Split decomposition.
2.4 Split decomposition
Im Gegensatz zu der Methode von Buneman wird bei der Split decomposition
nun durch eine Änderung ein neuer Index definiert. Hierbei ist: α(uv|xy)
mit Split S={A,B} wobei u,v ∈A und x,y ∈B definiert als:
(
α
xy
|
uv
)
=
max{
uxd
,(
)
+
vxdvyd
),
),(
,(
+
uyd
,(
))
yxd
,((
)
+
vud
,(
))
Der Isolation Index
Sα ist definiert als:
2/1
min
uvα
(
|
xy
)
über alle u,v ∈A und x,y ∈B
Beispiel:
Betrachtet man den in Abb. 2.3 dargestellten Netzwerk N mit den Taxa 1,2,3,4
so ist auch hier die geringste Entfernung zweier Taxa zueinander die geringste
Summe der gewichteten Kanten des Netzwerks. Es kann allerdings, im
Gegensatz zu Bäumen, wie auch in diesem Beispiel vorkommen, dass zwei
unterschiedliche Pfade von Kanten beide die geringste Gewichtung haben.
- 7 -
Proseminar: Grundlagen der Bioinformatik
Thema: SplitsTree and Phylogenetic Networks
Christoph Schwörer
So ist beispielsweise die Entfernung d N (1,3)=1+3+4+5=13. Um zu diesem
Ergebnis zu gelangen kann man aber 2 verschiedenen Pfaden folgen, nämlich
zuerst dem senkrechten und dann dem waagerechten oder umgekehrt. Will
man nun für den Split S={{1,4}{2,3}} den Isolation Index
Sα von S berechnen
Sα = 3. Und für den Split T={{1,2}{3,4}} ist
so ergibt sich aus α(14|23) = 6 ⇒
Tα = 4. Hierbei fällt auf, dass die berechneten Indizes genau den Gewichtungen
der parallel verlaufenden Kanten entspricht.
(Abb. 2. 3)
Isolation
Aus diesem Beispiel lassen sich nun 2
wichtige Dinge erkennen. Erstens, führt
die Entfernung parallel verlaufender
Kanten zu einer Splittung des Netzwerks,
Index genau dem
dessen
Gewicht der jeweils entfernten Kanten
entspricht. Und zweitens sieht man, dass
die Splits S und T nicht mehr kompatibel
sind und somit auch nicht zu einem Baum
gehören können. Das bedeutet nun, dass
Splits mit positivem Isolation Index im Gegensatz zu Splits mit positivem
Buneman Index nicht mehr unbedingt kompatibel sein müssen. Da kein Vorteil
darin liegt mehr Splits als notwenig zu behalten wird nun allen verbleibenden
Splits mit Hilfe der spectral analyse ein Wert über ihre Wichtigkeit
zugewiesen.
Berechnet man hier z.B, wie in Abb. 2.3 zu sehen, den Isolation Index eines
Splits U={{1,3}{2,4}} so ergibt sich αU=0. Da αU hiermit kein positiver Index
aus der Menge der Taxa {1,2,3,4} ist gehört es auch nicht dazu. Geht man nun
weiter und berechnet die Isolation Indizes und die Buneman Indizes der in Abb.
2.4 dargestellten A, B und C so sieht man, dass man mit dem Isolation Index
sowohl A als auch B behalten würde und nur C verworfen würde, beim
Buneman Index hingegen würden C und auch B verworfen und nur A behalten.
Kombiniert man nun A und B miteinander erhält man wieder das in Abb.2.3
dargestellte Netzwerk welches eine Mischung aus A und B darstellt und keinem
von beiden eine Priorität einräumt.
- 8 -
Proseminar: Grundlagen der Bioinformatik
Thema: SplitsTree and Phylogenetic Networks
Christoph Schwörer
(Abb2.4)
Aus dieser Dissonanz zwischen den immer kompatiblen Splits eines postiven
Buneman Indexes und den nicht gezwungenermaßen kompatiblen Splits eines
positiven Isolation Indexes erklärt sich nun die neue Definition einer schwachen
Kompatibilität.
Drei Splits sind schwach kompatibel, falls mindestens eine Schnittmenge
aus der Splits S={A,B}, T={C,D} und U={E,F} leer ist:
1
{
II∈∅≤
EDBFCBFDAECA
,
}
,
,
II
II
II
Die wichtigsten Schlüsse die man nun aus dieser schwachen Kompatibilität
ziehen kann sind folgende:
• Hat X n Elemente so ist die Anzahl der Splits mit positivem Isolation
Index maximal n(n-1)/2.
• Diese können effizient berechnet werden.
• Alle 4 der oben geforderten Ansprüche an ein derartiges Verfahren wird
genüge getan.
2.5 Von schwach kompatiblen Splits zu Netzwerken
Nachdem man nun zu einem solchen Satz an schwach kompatiblen Splits den
jeweiligen Isolation Index berechnet hat muss man eine Möglichkeit finden
diese in einem gewichteten Netzwerk darzustellen. Im Allgemeinen kann dies
immer unter der Verwendung von Median Netzwerken erreicht werden, bei
diesen besteht aber das Problem, dass sie nicht immer auch planar sind und
somit schwer zu zeichnen. Sofern die berechneten Spilts aber zyklisch sind
- 9 -
Proseminar: Grundlagen der Bioinformatik
Thema: SplitsTree and Phylogenetic Networks
Christoph Schwörer
besteht die Möglichkeit diese in einem sogenannten äußeren Planaren
Netzwerk darzustellen. Diese Netzwerke sind es auch, die im Allgemeinen von
dem Programm SplitsTree erzeugt werden.
Die Menge der Splits eines gegebenen Sets an Taxa ist zyklisch, falls diese
auf einem Kreis so angeordnet werden können, dass sich jeder Split durch
eine Linie darstellen lässt
(Abb. 2.5)
Betrachtet man nun das in Abb. 2.5. dargestellt Beispiel so sieht man, dass jede
gepunktete Linien einen Split darstellt. Fügt man nun jedem, der in Teil A durch
eine gepunktete Linie eingegrenzten Bereiche, einen Knoten hinzu und
verbindet diese so kommt man zu Abb2.5B. Man sieht, dass Teil C nun schon
dem originalen Netzwerk das in Teil C abgebildet ist ähnelt, man erreicht dies
indem man die Ecken nun leicht anpasst, so dass diese parallel zueinander
verlaufen. Die Methode die hier in diesem Beispiel verwendet wurde basiert auf
dem Prinzip der De Bruijn dualisation.
Ordnet man nun jeder Kante den Wert des ihres Splits entsprechenden Isolation
Indexes zu so lässt sich aus diesem Gewichteten Netzwerk ein repräsentativer
Wert der Distanz dN errechnen. Ist das mit Hilfe eines positiven Isolation Index
der Splits erzeugte Netzwerk zyklisch, so stellt dN einen Näherungswert der
wirklichen Distanz d dar. Die verbleibende Differenz zwischen d und dN wird
als split-prime-residue (d- dN) bezeichnet und ist genau dann 0 falls die
erzeugten dN der eigentlich errechneten d entsprechen.
Das Maß für die Genauigkeit diese Näherung der dN an d wird definiert als
Fit Index:
fi
=
)(
(
dd
N
,(
yxd
,
yx
)
)
%100*
für alle x,y aus X
- 10 -
Proseminar: Grundlagen der Bioinformatik
Thema: SplitsTree and Phylogenetic Networks
Christoph Schwörer
3. Anwendung
3.1 Das SplitsTree Programm
Erhältlich sind mehrere Versionen von SplitsTree, die aktuellste Release
Version 3.2 ist verfügbar für Win32 und Unix. Für MacOS ist die Version 2
verfügbar. Eine Java basierte Version 4 Namens Jsplits ist im Betastadium. Alle
Versionen sind verfügbar unter:
http://www-ab.informatik.uni-tuebingen.de/software/splits/
Für die Version 3.2 für Win32 wird zudem noch die TCL/TK Erweiterung
TCL805.exe benötigt. Diese ist zu finden unter http://www.scriptics.com.
Zudem müssen noch die Dateien TCL80.dll und TK80.dll in den SplitsTree
Ordner kopiert werden.
3.2 Beispiel: mtDNA Datensatz
(Abb. 3.1)
- 11 -
Proseminar: Grundlagen der Bioinformatik
Thema: SplitsTree and Phylogenetic Networks
Christoph Schwörer
Abb. 3.1 stellt einen mit SplitsTree erstellten Split Graphen dar, dessen Fit Index
wie in der Statusleiste angegeben bei 79,2% liegt. D.h. 80% der angegebenen
Distanzen sind noch korrekt und 20% der Distanzen weichen von ihrer
eigentlich errechneten Distanz ab. Man kann nun leider nicht generell sagen
welcher Fit Index für einen SplitGraphen gut ist. Erfahrungsgemäss werden
Netzwerke die bei über 80% liegen als akzeptabel betrachtet. Bei Fit Indizes von
70% und weniger kann man davon ausgehen, dass zu viele verworfen wurden
um noch ein Netzwerk darstellen zu können, als dass man das Netzwerk noch
verwenden könnte.
Man darf davon ausgehen, dass bei einem hohen Fit Index die Ergebnisse
anderer Methoden die auf Entfernungen basieren, wie z.B. NJ, sehr ähnlich
aussehen würden. Im Folgenden sieht man in Abb3.2 den gleichen Datensatz an
Taxa, diesmal allerdings als Buneman Baum aufgebaut.
(Abb. 3.2)
- 12 -
Proseminar: Grundlagen der Bioinformatik
Thema: SplitsTree and Phylogenetic Networks
Christoph Schwörer
3.3 Beispiel 2: HIV-1 Datensatz
(Abb. 3.3)
In Abb. 3.3 nun dargestellt sieht man das Netzwerk der aus einem HIV Set
erstellt wurde. Das Netzwerk ist zwar zum größten Teil baumartig und der Fit
Index von 88,2% bestätigt die Korrektheit der Darstellung. Im Gegensatz zum
ersten Beispielt tritt hier jedoch eine Ungenauigkeit im Netzwerk vor den Taxa
U27399 und U43368 auf. Des Weiteren ist der Zentrale Knoten mit einem Grad
von 6 auffällig. Dies lässt auf einen Konflikt der Daten schließen, so dass sich
dieser Knoten nicht weiter auflösen lässt.
Bei den bisherigen beiden Beispielen wurde nun die Distanz schlicht mit der
Hamming Methode berechnet welche die Anzahl der Unterschiede zwischen
zwei Sequenzen als deren Entfernung ausgibt.
Es ist nun aber auch möglich schon im Voraus mit einer Methode berechneten
Distanzmatrizen in SplitsTree einzubinden und zu verwenden. Dazu müssen die
zu importierenden Daten lediglich im Nexus Dateiformat bereitgestellt werden.
- 13 -
Proseminar: Grundlagen der Bioinformatik
Thema: SplitsTree and Phylogenetic Networks
Christoph Schwörer
Wie man in Abb. 3.4 leicht erkennt wurde diese nicht aus einem baumartigen
Datenset erzeugt sondern aus HCV Daten (Allain et al. 2000) einer Studie über
die Immunantwort auf Hepatitis C. Eine baumartige Darstellung dieses
Netzwerkes wäre, im Gegensatz zur dieser Abbildung, nur unzureichend. Zumal
der Split Index von 96,3% auf eine nahezu korrekte Darstellung der errechneten
Distanzen hinweist. Man kann nun das dargestellte Netzwerk grob in drei
Einheiten aufteilen. Hierbei wurde die mit 603 gekennzeichneten Taxa aus
einem Donor entnommen und die mit 163 und 31 gekennzeichneten aus zwei
unterschiedlichen Rezipienten. Des Weiteren beachte man den Knoten der mit
in zweierlei Weise
31/7,31/13 gekennzeichnet
beachtenswert. Die doppelte Kennzeichnung weist darauf hin, dass kein
Splitindex eines Splits gefunden wurde der diese zwei Taxa trennen würde. Die
Tatsache, dass dieser Knoten ein interner Knoten und kein Blatt ist deutet darauf
hin, dass es sich hierbei um einen Vorfahr der an den Blättern dieses
Teilnetzwerks vorhandenen Taxa handelt.-
ist. Dieser
ist gleich
Weitere Beispiele
zur Analyse von
Daten findet man
in Dopaz et al.
(1993)
und
Nielst-
Plikat,
und
Struwe
Meyerhans(1997)
.
(Abb 3.4)
- 14 -
Proseminar: Grundlagen der Bioinformatik
Thema: SplitsTree and Phylogenetic Networks
Christoph Schwörer
Quellenangaben:
Verwendete Abbildungen:
The Phylogenetic Handbook, M.Salemi,
A-M. Vandamme, Cambridge University Press, 2003
Verwendete Literatur:
The Phylogenetic Handbook, M.Salemi,
A-M. Vandamme, Cambridge University Press, 2003
Studienarbeit zum Vergleich prokaryotischer Gnome,
A. Auch, Uni Tübingen , 2003
- 15 -

View File

@@ -0,0 +1,900 @@
Protein Similarity Measures as Kernels for
Proteochemometrics
Christoph Schw¨orer
1. November 2009
2
2
3
3
4
4
5
5
6
7
7
7
8
9
10
11
12
13
14
22
Inhaltsverzeichnis
1 Einleitung
1.1 Versuche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Methodik
Substitution Kernel
2.1 SVM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Verwendete Kernel
. . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Tanimoto Kernel
2.2.2 Missmatch Kernel
. . . . . . . . . . . . . . . . . . . . . .
2.2.3 Gappy Kernel . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
2.2.4
2.2.5 Alignment Kernel
. . . . . . . . . . . . . . . . . . . . . .
Implementierung der Kernel . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Tanimoto Kernel
. . . . . . . . . . . . . . . . . . . . . .
2.3.2 Missmatch Kernel
2.3.3 Gappy Kernel . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
2.3.4
. . . . . . . . . . . . . . . . . . . . . .
2.3.5 Alignment Kernel
2.4 Die Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .
2.5 verwendete Programme
Substitution Kernel
2.3
3 Ergebnisse
4 Diskussion
1
Kapitel 1
Einleitung
1.1 Versuche
2
Kapitel 2
Methodik
2.1 SVM
Eine Support Vektor Machine (SVM) ist ein Verfahren aus dem Bereich der
Mustererkennung zur Klassifikation von Objekten. Diese Objekte werden hier-
bei durch ihre Eigenschaften (features) (zB. L¨ange, Gewicht oder Sequenzfolge)
und ihre Klasse repr¨asentiert. Bei einer Gegebenen Anzahl d an Eigenschaften
k¨onnen diese als d-dimensionaler Vektor dargestellt werden. Der d-dimensionale
Raum der Eigenschaftsvektoren wird Eigenschaftsraum (feature space) χ ge-
nannt.
Das Ziel einer SVM ist es nun anhand gegebener Trainingsvektoren deren Klas-
se bereits bekannt ist unbekannte Objekte korrekt zu klassifizieren. Man hat
Beispielsweise 2 Klassen von l Objekten mit einer Anzahl d an Eigenschaften x
die als Paare (xi, yi), i = 1, . . . , n mit (cid:126)xl ∈ Rdund yi ∈ {1, 1}n gegeben sind.
Sind die Datenpunkte im Eigenschaftsraum χ linear separierbar durch eine Hy-
perebene so ist das Problem trivial (Siehe Abb 2.1A). Sind die Daten aber nicht
linear separierbar (Siehe Abb 2.1B) so muss folgendes Optimierungsproblem
Abbildung 2.1: Beispiel f¨ur linear separierbare Daten (A) und nicht linear sepa-
rierbare Daten (B)
3
gel¨ost werden (Boser et al. 1992; Cortes, C. and Vapnik, V., 1995):
minw,b,ξ
1
2 wT w + C (cid:80)l
i=1 ξi
mit der Bedingung yi(wT φ(xi) + b1 ξi,
ξi0.
(2.1)
C > 0 ist eine positive Konstante die als Strafparameter dient. Die Trainings-
vektoren wi werden zudem auf einen h¨oher dimensionalen Vektorraum durch die
Funktion φ : Rd1 → Rd2 , w → φ(w); d2 > d1 abgebildet um in diesem h¨oher
dimensionalen Raum eine Hyperebene zu finden die ihn linear separiert. Da die
Daten xi im Algorithmus zur L¨osung des oben genannten Problems nur in der
Form eines Skalarproduktes (cid:104)xi, xj(cid:105) im Raum Rd1 eingehen ist es m¨oglich diese
durch ein Skalarprodukt (cid:104)φ(xi), φ(xj)(cid:105) im Raum Rd2 zu berechnen. Hierzu kann
nun eine positiv-semidefinite Kernelfunktion verwendet werden mit:
k(xi, xj) = (cid:104)φ(xi), φ(xj)(cid:105)
(2.2)
Die in dieser Arbeit verwendeten Kernelfunktionen werden im folgenden Ab-
schnitt erl¨autert.
2.2 Verwendete Kernel
2.2.1 Tanimoto Kernel
Der einfachste implementierte Kernel ist der Tanimoto Kernel. Hierbei wird ein
|Σ|k-dimensionaler Vektorraum ¨uber {0,1} verwendet. Jede Koordinate wird
durch ein m¨ogliches k-mer α indexiert. Tritt das k-mer α auf, so wird der Wert
der Koordiante 1 ansonsten bleibt sie 0. Dies f¨uhrt zu folgender feature map:
wobei
ΦT animoto
k
(x) = (φα(x))α∈Σl
φα(x) =
(cid:26) 1,
0,
falls α in x vorkommt
sonst
(2.3)
(2.4)
F¨ur eine Sequenz x beliebiger L¨ange wird diese feature map nun ¨uber die Sum-
mation der einzelnen Vektoren f¨ur alle k-mere in x gebildet:
ΦT animoto
k
(x) =
(cid:88)
ΦT animoto
k
(α) = X
(2.5)
kmere α in x
Der Tanimoto Koeffizienl T (X, Y ) f¨ur zwei Sequenzen x und y wird nun errech-
net durch den Tanimotokoeffizienten von X und Y
T (X, Y ) =
X · Y
||X||2 + ||Y ||2 X · Y
(2.6)
Damit ergibt sich abschließend der Tanimoto Kernel
kT animoto
k
(x, y) = T (X, Y ) = T (ΦT animoto
k
(x), ΦT animoto
k
(y))
(2.7)
4
2.2.2 Missmatch Kernel
Zur Erh¨ohung des Realit¨atsgrads und der Ann¨aherung an die nat¨urlichen Gege-
benheiten muss es jedoch m¨oglich sein einen gewissen Grad von Ungenauigkeit
zu erm¨oglichen. Ein Kernel der dies erreicht darf also nicht nur abh¨angig von
genauen Vergleichen sein sondern muss ein Maß an ¨Ahnlichkeit implementie-
ren. Eine einfache M¨oglichkeit dieser Implementation ist es missmatches beim
Vergleich von k-meren zu erlauben. In Leslie et al. (2003b) wird hierzu ein
(k.m)-missmatch Kernel ¨uber eine feature map ΦM issmatch
realisiert. F¨ur ein
missmatch neigh-
gegebenes k-mer α = α1α2α3...αk, αi ∈ Σ wird hierzu ein
borhood“Nk,m(α) definiert. Dies ist die Menge aller k-mere die sich an maximal
m Stellen vom k-mer α unterscheiden. Die featur map f¨ur α ist demnach definiert
als:
(l,m)
wobei
ΦM issmatch
(k,m)
(α) = (φβ(alpha))β∈Σk
φβ(x) =
(cid:26) 1,
0,
falls β ∈ N(k,m)(α)
sonst
(2.8)
(2.9)
Wie schon beim Tanimoto Kernel wird auch hier wieder f¨ur eine Sequenz x be-
liebiger L¨ange die map durch Addition der einzelnen feature Vektoren gebildet:
ΦM issmatch
(k,m)
(x) =
(cid:88)
ΦM issmatch
(k,m)
(α)
(2.10)
kmere α∈x
Im Gegensatz zum Tanimoto Kernel werden aber mehrfach vorkommende k-
mere auch mehrfach gewertet. Jedes k-mer tr¨agt somit zu allen Werten sei-
missmatch neighborhood“ bei. In diesem Fall Stellt die β Koordinate von
nes
ΦM issmatch
(x) also die Anzahl derjenigen k-mere in x dar, die maximal an m
(k,m)
Stellen abweichen. Der (k, m)-missmatch Kernel kM issmatch
(x, y) kann also dar-
gestellt werden als das Skalarprodukt der feature Vektoren von x und y:
(k,m)
kM issmatch
(k,m)
(x, y) = (cid:104)ΦM issmatch
(k,m)
(x), ΦM issmatch
(k,m)
(y)(cid:105)
(2.11)
2.2.3 Gappy Kernel
Alternativ zu missmatches m¨ussen in einem biologisch motivierten Kernel auch
L¨ucken erlaubt werden. Diese M¨oglichkeit ist mit dem Gappy Kernel gegeben.
Wie auch die beiden vorhergehenden Kernel wird f¨ur den (g, l)-gappy string
kernel (Leslie and Kuang, 2003) der gleiche |Σ|l-dimensionale Merkmalsraum
gappy“ matches
verwendet. In diesem Fall aber basiert die feature map auf
von g-meren zu l-meren (wobei g > l). Hierbei ist G(g,l)(α) die Menge aller
l-mere die als Teilfolgen der L¨ange l (mit g l L¨ucken) aus einem gegeben g-
mer α = α1α2 . . . αg, αi ∈ Σ durch Konkatenation von Zeichen aus g gewonnen
werden k¨onnen. Wobei f¨ur alle Stringpositionen αi, αj gelten muß: i < j falls
i < j in g. Somit ergibt sich die feature map:
wobei
ΦGappy
(g,l)
(α) = (φβ(α))β∈Σl
φβ(α) =
(cid:26) 1,
0,
falls β ∈ G(g,l)(α)
sonst
(2.12)
(2.13)
5
Hierbei tr¨agt wieder jede Teilfolge zum Wert aller feature Vektoren bei in denen
sie vorkommt. Die feature map wird dann wieder erweitert auf eine beliebig
lange Sequenz x indem ¨uber alle feature Vektoren aller g-mere in x summiert
wird:
ΦGappy
(g,l)
(x) =
(cid:88)
φGappy
(g,l)
(α)
(2.14)
Der (g, l)-gappy kernel kGappy
(g,l)
dukt der feature Vektoren zweier Sequenzen x und y:
(x) wird wiederum erneut definiert als Skalarpro-
gmere α∈x
kGappy
(g,l)
(x, y) = (cid:104)ΦGappy
(g,l)
(x), ΦGappy
(g,l)
(y)(cid:105)
(2.15)
2.2.4 Substitution Kernel
Eine erweiterte Variante des mismatch Kernels ist der substitution kernel (Les-
lie and Kuang, 2003). Anstelle des mismatch neighborhood wird hier jedoch ein
similarity neighborhood verwendet. Dieses basiert auf einem probabilistischen
Model zum Austausch von Zeichen in den betrachteten Sequenzen. Hierzu wer-
den paarweise Werte S(a, b) verwendet die sich aus gesch¨atzten evolution¨aren
Austauschwahrscheinlichkeiten ableiten (Henikoff and Hennikoff, 1992; Schwartz
and Dayhoff, 1978; Altschul et al., 1990). Um solch eine Matrix S zu generieren
werden einzelne Bl¨ocke von von Sequenzen homologer Proteine verglichen und
ein log odds-Ratio errechnet:
S(i, j) =
(cid:19)
(cid:18) 1
λ
log
(cid:19)
(cid:18) pij
qi qj
(2.16)
wobei pij die Wahrscheinlichkeit darstellt die Aminos¨auren i und j in einem
Alignment zu finden. qi und qj hingegen bezeichnen die H¨aufigkeiten der Ami-
nos¨auren. λ ist der Normalisierungsfaktor. Man definiert nun also den mutation
neighborhood M(k,σ)(α) eines k-mers α = a1a2 . . . ak folgendermaßen:
M(k,σ)(α) =
(cid:110)
β = b1b2 . . . bk ∈ Σk :
(cid:88)
(cid:111)
S(ak, bk)
(2.17)
Dabei l¨asst sich σ = σ(N ) w¨ahlen, so dass maxα∈Σk |Mk,σ(α)| < N . Dies
erm¨oglicht eine Kontrolle ¨uber die Gr¨oße des mutation neighborhood. Die sub-
stitution feature map definiert sich nun wie folgt:
wobei
ΦSubstitution
(k,σ)
=
(cid:88)
(φβ(α)β∈Σk )
kmere α∈x
φβ(α) =
(cid:26) 1,
0,
falls β ∈ M(k,σ)(α)
sonst
(2.18)
(2.19)
Der substitution kernel kSubstitution
als:
(k,σ)
ist damit ¨uber das Skalarprodukt definiert
kSubstitution
(k,σ)
= (cid:104)ΦSubstitution
(k,σ)
(x), ΦSubstitution
(k,σ)
(y)(cid:105)
(2.20)
6
2.2.5 Alignment Kernel
Im Gegensatz zu den bisher angef¨uhrten Kerneln stellt der Alignment Kernel
keinen direkten ¨Ahnlichkeitsvergleich zweier Sequenzen dar. Vielmehr wird die-
ser Kernel durch Faltung mehrere local alignments gebildet da ein einzelnes local
alignment keinen g¨ultigen Kernel darstellt.(Vert, Jean-Philippe; Siago, Hiroto;
Akutsu, Tatsuya). Im folgenden wird nun ein g¨ultiger local alignment Kernel
definiert.
Gegeben sei hierzu eine Substitutionsmatrix S und eine gap penalty Funktion
g. Zus¨atzlich werden drei Kernel auf Basis einer Funktion aus S und g definiert.
Der erste Kernel k0 ist hierbei ein konstante Abbildung von auf 1 welche f¨ur
diejenigen Sequenzteile verwendet werden die außerhalb des matchings liegen:
k0(x, y) := 1, ∀(x, y) ∈ χ2
(2.21)
Der zweite Kernel ka wird zur Berechnung der ¨Ahnlichkeit von allinierten Sym-
bolen mit Hilfe von S verwendet:
k(β)
a (x, y) :=
(cid:26) 0,
exp(βS(x, y)),
falls |x| (cid:54)= 1 oder |y| (cid:54)= 1
sonst
(cid:27)
, ∀(x, y) ∈ χ2
(2.22)
mit β ≥ 0 als Parameter. Der dritte Kernel kg dient abschließend zur Darstellung
der gap penalty:
k(β)g(x, y) := exp[β(g(|x|) + g(|y|))]
wobei β ≥ 0 den gleichen Parameter wie in (2.20) bezeichnet und g eine g¨ultige
gap penalty Funktion .
Diese 3 Kernel werden nun durch Faltung zu einem g¨ultigen Kernel kn zusam-
mengef¨ugt:
(2.23)
k(β)
(n) := k0
a k(β)
k(β)
g
(cid:16)
(cid:17)(n1)
k(β)
a k0
(2.24)
Dieser Kernel definiert nun die ¨ahnlichkeit von zwei Strings x und y mit einem
local alignment der L¨ange n. Hierbei werden durch den Kernel alle m¨oglichen
a (k(β)
Dekompositionen von x und y erfasst. Dabei ist k0 der initiale Teil, (k(β)
)
Die Verteilung aller local alignments von genau n Symbolen die durch (n 1)
gaps getrennt werden und das abschließende k0 der finale Teil.
Um nun bei einem Vergleich zweier Strings alle m¨oglichen lokalen alignments
zu ber¨ucksichtigen ist es Notwendig ¨uber alle n zu summieren so dass sich der
endg¨ultige local alignment kernel k(β)
g
LA ergibt:
k(β)
LA :=
(cid:88)
i=0
k(i)
(2.25)
2.3
Implementierung der Kernel
2.3.1 Tanimoto Kernel
Um eine effiziente Berechnung zu gew¨ahrleisten wird eine Trie-Datenstruktur
verwendet. Hierbei wird jeweils ein Trie f¨ur jede der Sequenzen x und y gebil-
det. Die Tiefe des Tries entspricht dem Parameter k der verwendeten k-mere.
Jeder innere Knoten des Tries hat maximal |Σ| (im Fall von Aminos¨auren also
7
Abbildung 2.2: Beispiel f¨ur 2 Tries und deren Tanimoto Koeffizienzen
20) ¨Aste. der Pfad von der Wurzel des Baumes zu einem Blatt entspricht ei-
nem in der zugeh¨origen Sequenz auftretenden k-mer. An jedem inneren Knoten
wird beim Aufbau des Tries ¨uberpr¨uft ob ein k-mer mit der entsprechenden Zei-
chenfolge erweitert um ein Symbol aus Σ in der Sequenz existiert.Falls ja wird
der Trie um dieses Symbol erweitert. Die Bl¨attern des Tries, also jeweils ein
m¨ogliches k-mer, entsprechen hierbei also den Koordinaten der Vektoren des
Tanimoto Koeffizienten. Nach dem Aufbau der Tries wird der Tanimoto Ko-
effizient T (X, Y ) (Siehe Formel 2.4) der beiden Sequenzen anhand ihrer Tries
errechnet. Mehrfach auftretende k-mere werden bei diesem Trie und so auch im
Tanimoto Koeffizien auf eins reduziert.
2.3.2 Missmatch Kernel
Auch der mismatch Kernel nutzt zur Berrechnung eine Trie Struktur ¨ahnlich
der des Tanimoto Kernels. Im Gegensatz zu dem beim Tanimoto Koeffizienten
verwendeten Trie sollen aber bei dem hier verwendeten Trie auch alle mehrfach
vorkommenden k-mere gewertet werden. Hierzu wird jedem Knoten (auch den
Bl¨attern) eine Liste mit Pointern aller n-mere (wobei n die Tiefe des aktuel-
len Knotens ist) zugewiesen, die dem Pfad des Knotens von der Wurzel aus
entsprechen oder maximal m missmatches aufweisen. Es wird dazu bei jedem
erweitern des Tries um ein Symbol am aktuellen Knoten f¨ur jedes n-mer der
8
Abbildung 2.3: Teil des (6,1)-missmatch trees f¨ur die Sequenz ATGACATT. Es
werden l-mere der L¨ange 6 mit mit max. 1 missmatch berechnet. Der hier darge-
stellte Pfad zeigt den Teilbaum aller mit l-mer features mit Pr¨afix AL. In jedem
Knoten werden zu allen g¨ultigen Pr¨afixen die Anzahl an missmatches zwischen
dem Pr¨afix einer l-mer Instanz und dem Pr¨afix eines features gespeichert sowie
ein Pointer zum Startpunkt des jeweiligen Pr¨afixes.
Liste des Vorg¨angerknotens geschaut ob das (n+1)-mer noch innerhalb der m
missmatches liegt. Ist dies der Fall wird es in die Liste ¨ubernommen; ist dies
nicht der Fall wird es nicht ¨ubernommen. Die Liste der (n+1)-mere ist allso
in jedem Fall eine valide Teilmenge der Liste des Knotens des vorhergehenden
n-mers. Erreicht man auf diese Weise ein Blatt so ist die Liste der l-mere also
eine g¨ultige Liste aller l-mere die maximal m mismatches zum gesuchten l-mer
α aufweisen.
F¨ur eine Sequenz x sind also alle g¨ultigen l-mere die in N(l,m)(α) liegen also
¨aquivalent zu allen l-meren in den Listen des Bl¨attes des Tries mit dem Pfad α.
Alle l-mere der Liste tragen somit zur α Koortinate des feature vektors Φ(x) bei.
Man kann also nun einfach die Beitr¨age aller auftretenden Instanzen Summieren
und somit den Wert des Kernels aktualisieren:
k(x, y) := k(x, y) + nα(x) nα(y)
(2.26)
wobei nα(x) und nα(y) die Anzahl der Instanzen, einschließlich missmatches,
eines l-mers α in x und y sind.
2.3.3 Gappy Kernel
Wie bei den beiden vorhergehenden Kerneln wird auch f¨ur den (g, l)-gappy
Kernel ein Baum mit Tiefe l verwendet bei dem jeder innere Knoten |Σ| ¨Aste
hat. Der Aufbau des Baumes wird durch ein depth first traversal realisiert.
¨Ahnlich dem Missmatch Kernel wird jedem besuchten Knoten eine Liste mit
Pointern zu g-meren zugewiesen die dem aktuellen Pr¨afix, mit maximal g l
gaps, entsprechen. F¨ur jedes g-mer wird hierbei zus¨atzlich ein Pointer zur letzten
g¨ultigen Position, also dem ersten Symbol nach letzen g¨ultigen Position des
Mutterknotens das der Bezeichnung des Astes entspricht, gespeichert. An der
Wurzel sind diese Pointer also alle 0 da noch keine Symbole in den g-meren
abgearbeitet wurden.
Bei jedem Schritt in den Baum hinein werden jeweils nur diejenigen g-mere
9
Abbildung 2.4: Teil eines (6,3)-gappy trees f¨ur die Sequenz ATGACATT. An
jedem Knoten werden die noch g¨ultigen g-mere gespeichert sowie die erste Stelle
des Auftretens des aktuellen Symbols nach dem letzten g¨ultigen Symbol. Im
gezeigten Bsp wird der Baum f¨ur das l-mer AAT gezeigt.
weitergegeben bei denen die letzte g¨ultige Position innerhalb des g-mers lag.
Wird kein g¨ultiges Symbol, das heißt ein Symbol das der Markierung des Astes
entspricht, zwischen dem letzten g¨ultigen und dem Ende des g-mers gefunden so
wird dieses verworfen. Findet man jedoch ein g¨ultiges Symbol so wird das g-mer
zusammen mit dem neuen Pointer an den Kindknoten weitergegeben. Wird bei
einem Schritt kein g-mer weitergegeben so muß dieser Teilbaum nicht weiter
bearbeitet werden.
Zum update des Kernelwertes f¨ur x und y muß nun nur f¨ur jedes feature k-
mer die Summe der g¨ultigen Pointer am, dem k-mer entsprechenden Blatt, zum
Kernelwert addiert werden.
2.3.4 Substitution Kernel
Die Berechnung des Substitution Kernels ¨ahnelt der des missmatch Kernels.
Auch hier wird ein trie der Tiefe l verwendet. An jedem Knoten der Tiefe d
wird eine Liste mit Pointern zu allen l-meren gespeichert. Zudem wird noch zu
jeder l-mer Instanz α die aktuelle mutation score (cid:80)d
i=1 S(ai, bi) im Verh¨altnis
zum aktuellen Pr¨afix des Pfades b1b2 . . . bd gespeichert. Bei jedem Schritt in den
Baum hinein wird an der Kante mit Beschriftung b der Tiefe d+1 zu jeder l-mer
Instanz α der Wert S(a, b) zur aktuellen mutation score addiert und zusammen
mit der l-mer Instanz α an den Kindknoten weitergegeben. Wie bei den bisheri-
gen Kerneln wird nun der Kernel Wert f¨ur ein l-mer erneuert indem die Summe
aller g¨ultigen Instanzen (also mit mutation score < σ) von l-meren im trie an
den Bl¨attern zum Kernel Wert f¨ur x und y addiert wird.
10
Abbildung 2.5: Beispiel f¨ur einen Substitution Kernel Trie der Tiefe 6 f¨ur das
Pr¨afix ANC. Die Werte f¨ur S(x,y) sind aus der BLOSUM62 (Siehe Tabelle 2.1)
entnommen.
2.3.5 Alignment Kernel
Da eine naive Berechnung des Kernels nach 2.23 zu einer exponentiellen Zu-
nahme der Komplexit¨at in Abh¨angigkeit von |x| und |y| f¨uhrt wurde einen
dynamic programming Ansatz gew¨ahlt. Hierbei handelt sich um eine Abwand-
lung des klassischen Smith-Waterman Algorithmus f¨ur affine gap penalties. Hier-
zu seien (x, y) ∈ χ2 zwei Sequenzen und g eine affine gap penalty Funktion mit
g(n) =
(cid:26) 0
d + e(n 1)
falls n = 0 , oder
falls n ≥ 1
(2.27)
dann ist der LA Kernel kβ
LA(x, y) f¨ur x und y gleichwertig mit
LA(x, y) = 1 + X2(|x| , |y|) + Y2(|x| , |y|) + M (|x| , |y|)
(2.28)
wobei M (i, j), X(i, j), Y (i, j), X2(i, j) und Y2(i, j) f¨ur 0 ≤ i ≤ |x|, und 0 ≤ j ≤
|y| rekursiv definiert sind als


M (i, 0) = M (0, j) = 0,
X(i, 0) = X(0, j) = 0,
Y (i, 0) = Y (0, j) = 0,
X2(i, 0) = Y2(0, j) = 0,
Y2(i, 0) = Y2(0, j) = 0,
(2.29)
und


M (i, j) = exp(βS(xi, yj))[1 + X(i 1, j 1) + Y (i 1, j 1) + M (i 1, j 1)],
X(i, j) = exp(βd)M (i 1, j) + exp(βe)X(i 1, j),
Y (i, j) = exp(βd)[M (i, j 1) + X(i, j 1)] + exp(βe)Y (i, j 1),
X2(i, j) = M (i 1, j) + X2(i 1, j),
Y2(i, j) = M (i, j 1) + X2(i, j 1) + Y2(i, j 1),
(2.30)
β ist hierbei der frei w¨ahlbare Parameter, S ist die in Tabelle 2.1 gezeigte BLO-
SUM62 Matrix, d und e sind die gap open und gap extension penalties. Zur
11
A R N D C Q E G H I L K M F P S T W Y V B Z X *
A 4 -1 -2 -2 0 -1 -1 0 -2 -1 -1 -1 -1 -2 -1 1 0 -3 -2 0 -2 -1 0 -4
R -1 5 0 -2 -3 1 0 -2 0 -3 -2 2 -1 -3 -2 -1 -1 -3 -2 -3 -1 0 -1 -4
N -2 0 6 1 -3 0 0 0 1 -3 -3 0 -2 -3 -2 1 0 -4 -2 -3 3 0 -1 -4
D -2 -2 1 6 -3 0 2 -1 -1 -3 -4 -1 -3 -3 -1 0 -1 -4 -3 -3 4 1 -1 -4
C 0 -3 -3 -3 9 -3 -4 -3 -3 -1 -1 -3 -1 -2 -3 -1 -1 -2 -2 -1 -3 -3 -2 -4
Q -1 1 0 0 -3 5 2 -2 0 -3 -2 1
0 -3 -1 0 -1 -2 -1 -2 0 3 -1 -4
E -1 0 0 2 -4 2 5 -2 0 -3 -3 1 -2 -3 -1 0 -1 -3 -2 -2 1 4 -1 -4
G 0 -2 0 -1 -3 -2 -2 6 -2 -4 -4 -2 -3 -3 -2 0 -2 -2 -3 -3 -1 -2 -1 -4
H -2 0 1 -1 -3 0 0 -2 8 -3 -3 -1 -2 -1 -2 -1 -2 -2 2 -3 0 0 -1 -4
1 0 -3 -2 -1 -3 -1 3 -3 -3 -1 -4
-1 -3 -3 -3 -1 -3 -3 -4 -3 4 2 -3
I
L -1 -2 -3 -4 -1 -2 -3 -4 -3 2 4 -2
2 0 -3 -2 -1 -2 -1 1 -4 -3 -1 -4
K -1 2 0 -1 -3 1 1 -2 -1 -3 -2 5 -1 -3 -1 0 -1 -3 -2 -2 0 1 -1 -4
5 0 -2 -1 -1 -1 -1 1 -3 -1 -1 -4
M -1 -1 -2 -3 -1 0 -2 -3 -2 1 2 -1
F -2 -3 -3 -3 -2 -3 -3 -3 -1 0 0 -3
1 3 -1 -3 -3 -1 -4
0 6 -4 -2 -2
P -1 -2 -2 -1 -3 -1 -1 -2 -2 -3 -3 -1 -2 -4 7 -1 -1 -4 -3 -2 -2 -1 -2 -4
1 -1 1 0 -1 0 0 0 -1 -2 -2 0 -1 -2 -1 4 1 -3 -2 -2 0 0 0 -4
S
T 0 -1 0 -1 -1 -1 -1 -2 -2 -1 -1 -1 -1 -2 -1 1 5 -2 -2 0 -1 -1 0 -4
W -3 -3 -4 -4 -2 -2 -3 -2 -2 -3 -2 -3 -1 1 -4 -3 -2 11 2 -3 -4 -3 -2 -4
Y -2 -2 -2 -3 -2 -1 -2 -3 2 -1 -1 -2 -1 3 -3 -2 -2
2 7 -1 -3 -2 -1 -4
V 0 -3 -3 -3 -1 -2 -2 -3 -3 3 1 -2
1 -1 -2 -2 0 -3 -1 4 -3 -2 -1 -4
B -2 -1 3 4 -3 0 1 -1 0 -3 -4 0 -3 -3 -2 0 -1 -4 -3 -3 4 1 -1 -4
Z -1 0 0 1 -3 3 4 -2 0 -3 -3 1 -1 -3 -1 0 -1 -3 -2 -2 1 4 -1 -4
X 0 -1 -1 -1 -2 -1 -1 -1 -1 -1 -1 -1 -1 -1 -2 0 0 -2 -1 -1 -1 -1 -1 -4
-4 -4 -4 -4 -4 -4 -4 -4 -4 -4 -4 -4 -4 -4 -4 -4 -4 -4 -4 -4 -4 -4 -4 1
Tabelle 2.1: Die BLOSUM62. Die Angegebenen Werte geben die log odds Ratio
der Aminos¨auren der Zeilen und Spalten an
Normierung der Ergebnisse und um das sogenannte diagonal dominance Pro-
blem zu vermeiden wird jeder Kernel wert kβ
LA(x, y) durch folgende Formel
aktualisiert
ln kβ
LA(x, y)
(2.31)
˜
LA(x, y) =
2.4 Die Daten
1
β
Der in dieser Arbeit verwendete Datensatz bezieht sich auf den in (Rausch, C.;
Weber, T.; Kohlbacher, O; Wohlleben, W. und Huson, D.; 2005) verwendeten
Datensatz an NRPS Proteinen. NRPS steht f¨ur nonribosomalproteinsynthetase
und Bezeichnet eine Familie von Proteinen in Bakterien und Pilzen die durch
einzelnes Anf¨ugen von Aminos¨auren an eine Kette ein Protein erzeugen. In den
meisten F¨allen sind dies Peptidantibiotika die spezielle nicht kanonische Ami-
nos¨auren verwenden. Die NRPS Proteine sind nach der Art ihres spezifischen
Substrates in 8 Klassen aufgeteilt:
• aliphatische Kettenenden mit Wasserstoffbr¨ucken Donor
• apolare, aliphatische Seitenketten
12
• aromatische Seitenketten
• lange positiv geladene Seitenketten
• aliphate oder phenyle mit OH Gruppen
• polare ungeladene (Cys)
• zyklische Aliphate
• hydroxy benzoe S¨auren und derivate
Der vollst¨andige Datensatz enth¨alt 339 Sequenzen.
2.5 verwendete Programme
Zu Analyse der berechneten Kerneldaten aus den vorgestellten Kerneln wurde
das Programm LibSVM (frei erh¨altlich unter: http://www.csie.ntu.edu.tw/ cj-
lin/libsvm/) verwendet. Insbesondere der Programmteil svm-train der es erm¨oglich
sowohl vorberechnete Kernel zu verwenden als auch eine direkte n-fache Kreuz-
validierung erm¨oglich. Hierzu m¨ussen die Parameter t 4 und v [n] verwendet
werden. Bei der Auswertung der Kernel wurde im weiteren Verlauf der Parame-
ter n immer mit 5 gew¨ahlt. Als Ausgabe erfolgt das Ergebnis der Kreuzvalidie-
rung in % sowie eine Datei die das Model der SVM zur weiteren Verwendung
innerhalb des Programms enth¨alt.
13
Kapitel 3
Ergebnisse
14
Abbildung 3.1: blabla
15
Abbildung 3.2: blabla
16
Abbildung 3.3: blabla
17
Abbildung 3.4: blabla
18
Abbildung 3.5: blabla
19
Abbildung 3.6: blabla
20
Abbildung 3.7: blabla
21
Kapitel 4
Diskussion
22

View File

@@ -0,0 +1,489 @@
Christoph Schwörer Vorprotokoll zum 1.Versuchstag
Benedikt Zimmermann
des PC-Praktikums
6.Juli 2005
Kinetik einer enzymkatalysierten Reaktion
Versuchsziel
Gegenstand dieses Versuchs ist die kinetische Analyse einer
enzymkatalytischen Alkohol-Oxidation unter Verwendung der
Alkoholdehydrogenase. Mit Hilfe von grundlegenden Gesetzen der
Reaktionskinetik, wie z.B. der Arrhenius-Gleichung und der Michaelis-
Menten-Gleichung, werden die ablaufenden Prozesse unter verschiedenen
Gesichtspunkten betrachtet.
Theoretische Grundlagen
Der nachfolgende Versuch setzt einige Definitionen aus den Bereichen der
Kinetik, der Enzymkatalyse sowie der Spektroskopie voraus.
Reaktionsgeschwindigkeit v
Die Reaktionsgeschwindigkeit wird am anschaulichsten über eine Änderung
der Stoffmenge von Edukten und Produkten in einem Zeitablauf definiert,
also
v=
dnA
dt
=
dnB
dt
. In diesem Fall ist A Edukt und B Produkt.
Für einen allgemeineren Ansatz wird die Reaktionszahl ξ verwendet, die auch
stöchiometrische Koeffizienten brücksichtigt. Es gelten
d=
dni
vi
und v=
d
dt
=
dni
vidt
.
Wenn Reaktionen mit einem konstanten Volumen V ablaufen, kann eine
Reaktionsvariable x eingeführt werden, die eine Definition der
Reaktionsgeschwindigkeit über eine Stoffmengenkonzentrationsänderung
V
=
dci
vi
folgt
erlaubt. Aus dx=d
v=
dx
dt
=
dci
vidt
.
Reaktionsgeschwindigkeitskonstante k
Die Reaktionsgeschwindigkeitskonstante k stellt den Proportionalitätsfaktor
für die Beziehung zwischen Reaktionsgeschwindigkeit v und den
Konzentrationen ci der Edukte. Es gilt:
v=
dx
dt
=kcA
acB
b...
. Die Exponenten a, b, ... dieser Gleichung geben
neben der Reaktionsordnung der einzelnen Komponenten auch die Summe
der Exponenten bezogen auf die Gesamtreaktion an.
- 1 -
Christoph Schwörer Vorprotokoll zum 1.Versuchstag
Benedikt Zimmermann
des PC-Praktikums
6.Juli 2005
Temperaturabhängigkeit der Reaktionsgeschwindigkeit
Die Arrhenius-Gleichung bringt die Reaktionstemperatur T, die
Aktivierungsenergie EA sowie k in Beziehung:
v 0=
 v 0,maxc s
 K M cs
=
v0, max
K M
cs
1
k 0: reaktionsspezifisch ; R : allgemeine Gaskonstante ; E A : Aktivierungsenergie
Die Reaktionsgeschwindigkeit nimmt also mit steigender
Reaktionstemperatur zu.
Michaelis-Menten-Gleichung
Die Michaelis-Menten-Gleichung
v 0=
 v 0,maxc s
 K M cs
=
v 0, max
K M
c s
1
beschreibt das Verhältnis der Reaktionsgeschwindigkeit und der
Substratkonzentration zu der Michaelis-Konstante, die definiert ist als
K M=
k 1k 2
k 1
.
Um die Michaelis-Menten-Gleichung zu linearisieren, d.h. um die
reaktionsspezifischen Größen K M und v 0,max zu bestimmen, gibt es
verschiedene Ansätze. Einer davon ist die Methode nach Lineweaver-Burk.
Hierbei wird nach Bildung des Kehrwerts
mx + b geschrieben, wobei v0, max=
1
b
für
1
v 0
1
c s
die Gleichung als Gerade y =
=1 und K M=
m
b
.
Spektroskopie
Mit Hilfe der Spektroskopie ist es möglich, die Stoffkonzentration einer Probe
und deren Änderung während einer Reaktion anhand der gemessenen
Extinktion zu bestimmen. Dies geschieht über das Lambert-Beer'sche Gesetz,
nach dem die Extinktion einer Substanz stets E=,icid ist. Hierbei ist ε
der mediumspezifische Extinktionskoeffizient, c die Konzentration und d die
Schichtdicke der Probe.
Extinktionen verhalten sich beim Mischen von Substanzen additiv, d.h. das
Gesetz hat dann folgenden Form:
E=∑ icid
- 2 -
Christoph Schwörer Vorprotokoll zum 1.Versuchstag
Benedikt Zimmermann
des PC-Praktikums
6.Juli 2005
Vorfragen
1.
Ethanol-
Ethanol-
volumen
volumen
V[V[μμl]l]
Stoffmenge
Stoffmenge
Ethanol
Ethanol
n[n[μμmol]mol]
ges. Proben-
ges. Proben-
volumen
volumen
cs[mmol /l]
cs[mmol /l]
Ethanol-
Ethanol-
konzentration
konzentration
1/Ethanol-
1/Ethanol-
konzentration
konzentration
1
2
5
10
20
50
17,1326
34,2652
85,6631
171,3262
342,6525
856,6312
100
1713,2624
3,001
3,002
3,005
3,010
3,020
3,050
3,100
5,708
11,42
28,51
56,91
113,5
280,9
552,6
0,1752
0,08756
0,03508
0,01757
0,008811
0,003560
00,1810
Ethanol=0,7893g/cm3 (bei 20°C)
MEthanol=212,011g/mol61,0079g/mol15,999g/mol=46,07g/mol
n=
m
M
m=V
Mit obigen Werten ergibt sich beispielsweise für die Stoffmenge von 1μl
Ethanol n=0,7893g/cm31 l/46,07g/mol=17,1326 mol .
2. Einheiten für Gleichung 4:
Die Änderung der Stoffmenge besitzt die Einheit [mol]. Die
Stöchiometriezahl hat keine Einheit. Mit der Zeiteinheit [s] hat die
Reaktionsgeschwindigkeit v somit die Einheit [mol/s].
Einheiten für Gleichung 6:
Die Änderung in der Konzentration hat die Einheit [mol/l]. Die
Stöchiometriezahl ist auch hier einheitenlos. Analog zu oben ergibt
sich mit der Zeiteinheit [s] die Reaktionsgeschwindigkeit v mit
[mol/l*s].
3. Die kinetische Kontrolle einer Reaktion kommt bei niedrigen
Temperaturen zum Tragen. Hierbei wird das kinetisch bevorzugte
Produkt gebildet, das über den Reaktionsweg mit der geringeren
Aktivierungsenergie entsteht.
Bei thermodynamischer Kontrolle hingegen wird das stabilere Produkt
gebildet. Es handelt sich dabei um eine stärker exergonische Reaktion.
- 3 -
Christoph Schwörer Vorprotokoll zum 1.Versuchstag
Benedikt Zimmermann
des PC-Praktikums
6.Juli 2005
4. Bei einer Reaktion 1.Ordnung besitzt die Geschwindigkeitskonstante k
die Dimension
1
s
. Im Grenzfall der unendlich hohen Temperatur
T∞K konvergiert k gegen k0 . Es gilt ferner
limT 0 k=0 .
5. Die Molekularität ist ein Maß für die an einer Elementarreaktion
beteiligten Teilchen. Im Gegensatz hierzu versteht man unter der
Ordnung einer Reaktion die Summe der Exponenten der
Konzentrationen der an der Reaktion beteiligten Edukte.
6. Die Konzentration des Eduktes C nimmt im Verlauf der Reaktion ab,
während die Konzentrationen von A und B solange zunehmen, bis die
Substratsättigung erreicht wird.
7. Für die Intensität eines Lichtstrahls bei Austritt aus einem durch die
Konzentration c und Schichtdicke d bestimmten Medium, gilt mit der
Eintrittsintensität I0 und dem Proportionalitätsfaktor ε:
Id=I010cd
Id
I0
=10cd log
I0
Id
Id
I0
Dies ist das Lambert-Beer'sche Gesetz.
=cd log
=cd=E
8. Voraussetzungen des Lambert-Beer'schen Gesetzes:
- paralleler Einfall monochromatischen Lichts
- Vermeidung von Streuung und Reflexion
- benötigt verdünnte Lösungen
Abweichungen des Lambert-Beer'schen Gesetzes:
Fluoreszenz oder Phosphoreszenz in der Probe
Siebeffekt durch inhomogene Verteilung des absorbierenden
Stoffes
zu niedrige Stoffkonzentration
9. Gemeinsamkeiten:
- Reduzierung der Aktivierungsenergie
- Katalysator befindet sich in der gleichen Phase wie die Reaktanten
Unterschiede:
- Möglichkeit der Substratsättigung bei heterogener und
enzymatischer Katalyse
- Bei der heterogenen Katalyse erfolgt die Reaktion nur an der
Phasengrenze
- Ausbildung des Enzym-Substrat-Komplexes nur bei der
Enzymkatalyse
- 4 -
Christoph Schwörer Vorprotokoll zum 1.Versuchstag
Benedikt Zimmermann
des PC-Praktikums
6.Juli 2005
10. Die Michaelis-Konstante K M=
k 1k 2
k 1
hat die Dimension
l
mol
.
11. Die maximale Anfangsgeschwindigkeit ist abhängig von der
Reaktionsgeschwindigkeitskonstanten k2 der Dissoziation (d.h. also
der Geschwindigkeitskonstante des Zerfalls) des Enzym-Substrat-
Komplexes und der Ausgangskonzentration des Enzyms.
12. Gemäß dem Lambert-Beer'schen Gesetz gehen in die Extinktion einer
Probe die Konzentration der einzelnen Komponten ci
Schichtdicke der Probe d und der mediumspezifische Koeffizient ε ein,
so dass sich insgesamt folgende Formel ergibt:
E=∑ ic id
, die
- 5 -

184
Stilvorlage.md Normal file
View File

@@ -0,0 +1,184 @@
# Stilvorlage
Leitfaden, um den Schreibstil der in `StilVorlagen` vorhandenen Dokumente für KI-gestützte Generierung nachzuahmen. Die Regeln beruhen auf folgenden Quellen (vollständige Texte liegen als `.md` vor):
- Ausarbeitung.md
- DIL_M4_Study Paper_Schwörer_Führung und Schlüsselqualifikation.md
- Diplomarbeit.md
- Protokoll des Versuchs Reaktionskinetik (eigenes)_korrigiert.md
- Protokoll Genetik Praktikum I.md
- Protokoll Versuch A - Nerv V2.md
- Protokoll_Psycho.md
- Seminar System Imunology - Ausarbeitung.md
- Splitstree.md
- Studienarbeit.md
- Vorprotokolll PC-Praktikum Versuchstag 1 - Kinetik2.md
## 1. Gemeinsame Stilprinzipien
1. **Sachlich und direkt:** Kurze bis mittlere Absätze, nüchterner Ton, Fokus auf Fakten und Beobachtungen. Emotionale Sprache vermeiden.
2. **Chronologische Struktur:** Beschreibe Vorgehen Schritt für Schritt (Vorbereitung → Durchführung → Auswertung). Bei theoretischen Arbeiten: Kontext → Problem → Methode → Ergebnis.
3. **Explizite Überschriften:** Jede Sektion erhält eine klare Überschrift (z.B. "Einleitung", "Vorbereitung", "Versuchsdurchführung", "Ergebnis").
4. **Kompakte Sätze mit Fachterminologie:** Begriffe wie "Ligand", "Extinktion", "Kontextfenster" oder "Traceability" werden ohne weitere Popularisierung genutzt.
5. **Listen für Kernaussagen:** Risiken, Ziele, Materialien, Fragen etc. werden häufig als Bullet- oder Nummernlisten dargestellt.
6. **Zeitform und Perspektive:** Vergangene Versuche im Präteritum ("wir führten durch"), allgemeine Beschreibungen im Präsens. Häufig "wir" oder passive Konstruktionen.
7. **Keine Gender-Doppelpunkt-Formen:** Personengruppen werden ohne Doppelpunkte oder Binnen-I angesprochen (z.B. "Entwickler" statt "Entwickler:innen"), analog zu den Vorlagendokumenten.
## 2. Strukturbausteine pro Dokumenttyp
### 2.1 Wissenschaftliche Ausarbeitungen (Ausarbeitung, Seminararbeit, Studienarbeit, Diplomarbeit)
- **Deckblatt-Informationen:** Institution, Lehrstuhl, Titel, Autor:in, Datum.
- **Einleitung:** Kontext, Relevanz, Zielsetzung in 13 Absätzen.
- **Theorie-/Methodenteil:** Beschreibt z.B. Autodock-Energiefunktionen, Kernel-Methoden oder High-Throughput-Techniken.
- **Abschnittstitel wie „Vorbereitung“, „Methodik“, „Ergebnisse“, „Diskussion“** mit kurzen Übergängen.
- **Aufzählungen** für Komponentenlisten (H-Brücken, vdW-Wechselwirkungen etc.).
### 2.2 Protokolle und Praktikumsberichte (Genetik, Reaktionskinetik, Nerv, Psycho, Vorprotokoll)
- **Meta-Block am Anfang:** Titel "Protokoll", Praktikum, Datum, Gruppe, beteiligte Personen.
- **Kurze Einführung** zum Zweck des Versuchs ("Die schnelle interne Informationsweiterleitung … beruht auf Nerven").
- **Materialien/Methoden** als Fließtext oder nummerierte Unterabschnitte.
- **Durchführung in Vergangenheit**, oft mit konkreten Mengen- und Zeitangaben ("2500 µl Puffer … 240 s Extinktion").
- **Kapitelstruktur:** Häufige Reihenfolge „Prolog → Versuchsteil I/II … → Einleitung → Methode → Ergebnisse/Auswertung“. Abschnittsüberschriften stehen meist allein in einer Zeile, manchmal mit Doppelpunkt („Versuchsteil I:“).
- **Auswertung/Ergebnis** folgt mit knapper Interpretation sowie Tabellen mit Spaltenüberschriften und Einheiten.
### 2.3 Seminar- und Proseminarunterlagen (Splitstree, Seminar System Immunology)
- **Doppelte Titelzeilen** („Proseminar: Grundlagen der Bioinformatik / Thema: …“).
- **Betreuerangabe** direkt nach dem Titel.
- **Inhaltsverzeichnis** mit nummerierten Kapiteln und Seiten.
- **Abschnittstitel mit Nummerierung** (1., 2., 2.1, …) in Tabellenform oder als Listen.
### 2.4 Persönliche Reflexions-/Leadership-Notizen (DIL_M4_Study …)
- **Kurzer Claim oder Frage** („Wer bin ich und wenn ja, wie viele?“).
- **Selbstreflexive Passagen** in Ich-Form möglich, dennoch sachlich.
## 3. Sprachliche Muster
- **Einführungssätze:** "Unsere Aufgabe bestand darin …", "Die schnelle interne Informationsweiterleitung …", "Ziel ist es …"
- **Verbindungswörter:** "Zunächst", "Anschließend", "Darüber hinaus", "Hierzu", "In diesem Versuch".
- **Mess- und Mengenangaben:** Immer in SI-Einheiten mit Zahlenwert und Einheit (µl, s, °C).
- **Umlaute konsequent nutzen** (ä, ö, ü, ß); beim Kopieren auf Konsistenz achten.
- **Fachliche Präzision vor rhetorischer Ausschmückung.**
### 3.1 Häufig verwendete Floskeln und Satzschablonen
- **Kontextsetzung:** "Dieses Dokument beschreibt …", "Im Rahmen des Praktikums wurde … durchgeführt.", "Der vorliegende Abschnitt fasst … zusammen."
- **Aufgabeneinstieg:** "Unsere Aufgabe bestand darin …", "Ziel der Messreihe war …", "Der Versuch diente dazu …"
- **Vorbereitungsphase:** "Vor dem Versuch wurde … eingestellt.", "Zunächst wurden … pipettiert und äquilibriert."
- **Durchführung:** "Anschließend gaben wir … hinzu und starteten die Messung.", "Der Prozess wurde in n Schritten wiederholt."
- **Ergebnisformeln:** "Der beste Lauf erreichte …", "Die Messreihe zeigte …", "Die Abweichung lag unter …"
- **Interpretation/Fazit:** "Die Ergebnisse bestätigen …", "Die Limitation liegt in …", "Damit ist die Grundlage für … geschaffen."
- **Wissensüberleitung:** "Auf Basis dieser Beobachtungen …", "Im nächsten Abschnitt wird … beschrieben."
- **Stakeholder-/Rollenbezug:** "Betreuer: …", "Gruppe B2D", "Autor: Christoph Schwörer" meist als separate Zeilen im Kopfbereich.
### 3.2 Wortwahl und Satzstellung (Diplomarbeit, Splitstree, Studienarbeit)
- **Deutschsprachige wissenschaftliche Wendungen:**
- Häufige Einleitungen sind „In den vergangenen Jahrzehnten ist man …“, „Mittlerweile gibt es …“, „Als Beispiel sei hier … genannt“ (Splitstree.md:3, Splitstree.md:17).
- Formulierungen wie „Hierbei wird … dargestellt“, „Hierzu kann … verwendet werden“, „Dies führt zu …“ strukturieren Argumentationsketten (Studienarbeit.md:48).
- Definitionen folgen dem Muster „Eine Support Vektor Machine (SVM) ist …“ oder „Der klassische Weg … ist …“, wobei erklärende Nebensätze das Verb ans Satzende stellen (Studienarbeit.md:58, Splitstree.md:33).
- Aussagen zu Ergebnissen nutzen „Die Ergebnisse zeigen, dass …“, „Damit eignet sich … als …“, „Somit lässt sich … beobachten“.
- **Angloamerikanische Passagen (Diplomarbeit.md):**
- Der Abstract verwendet selbstreferenzielle Sätze wie „In this work I tried to find …“, „The intent was to see if …“, „The results will show that …“ und kombiniert simple past mit future forms, um Ziel und Ausblick zu koppeln.
- Listen von Methoden werden mit „The first being …, the second …“ eingeleitet; Adverbien wie „concurrent“, „implicitly“ und „respectively“ dienen zur Präzisierung.
- Passive Formulierungen („was attained“, „is used“) dominieren Beschreibungen technischer Abläufe.
- **Wortstellungen und Übergänge:**
- Parataxen mit Doppelpunkt (z.B. „Beispielsweise …:“, „Hierzu kann …:“) leiten Aufzählungen oder Gleichungen ein.
- Einschübe in Klammern dienen der Quellenangabe („(Boser et al. 1992; Cortes and Vapnik 1995)“) oder definieren Symbole.
- Lange Fachsätze trennen Gedanken über Zeilenumbrüche, behalten jedoch das Verb am Satzende, wenn ein Nebensatz vorangestellt ist („Da …, muss … gelöst werden.“).
- **Lexikalische Besonderheiten:**
- Technische Begriffe (z.B. „Quantitative Structure-Activity Relationship“, „Split decomposition“, „feature map“) werden unverändert übernommen, teils mit deutscher Umgebung.
- Maße/Variablen werden konsequent benannt („k-mer“, „RMSD“, „µl“, „s“), häufig zusammen mit erklärenden Textfragmenten („Dies führt zu folgender feature map:“).
- Eigennamen und Rollen erscheinen als separate Zeilen (z.B. Betreuer:innen, Beginn-/Enddatum in Diplomarbeit.md:9).
- **Tonfall:**
- Neutral, teilweise beschreibend-narrativ („Ein Programm, das … ist SplitsTree …“), ohne rhetorische Fragen oder Umgangssprache.
- Selbstreferenzen werden sparsam genutzt („In dieser Arbeit …“, „Diese Studie untersucht …“), in englischen Abschnitten aber durchaus in Ich-Form („I tried to find …“).
### 3.3 Beispielabschnitte zur Stilnachbildung
> **Splitstree (Einleitung):**
> „In den vergangenen Jahrzehnten ist man, nach der Entdeckung der DNA, immer mehr dazu übergegangen Organismen nicht nur anhand ihrer phänotypischen Eigenschaften sondern auch anhand ihres Genotyps zu vergleichen. Mittlerweile gibt es einige gute Verfahren die die Ähnlichkeit und den Verwandtschaftsgrad zweier oder auch mehrerer Organismen bestimmen.“
Merkmale: zweigliedrige Einleitung (historischer Kontext → aktueller Stand), kaum Kommata zwischen Nebensätzen, direkte Überleitung auf Methode.
> **Studienarbeit (Methodik):**
> „Eine Support Vektor Machine (SVM) ist ein Verfahren aus dem Bereich der Mustererkennung zur Klassifikation von Objekten. Diese Objekte werden hierbei durch ihre Eigenschaften … und ihre Klasse repräsentiert. Sind die Datenpunkte … linear separierbar … so ist das Problem trivial … Sind die Daten aber nicht linear separierbar … so muss folgendes Optimierungsproblem gelöst werden.“
Merkmale: Definition + Bedingungssätze, Kombination aus erklärenden Nebensätzen und kurzen Hauptsätzen, konsequente Verwendung mathematischer Verweise.
> **Diplomarbeit (Zusammenfassung, ins Deutsche übertragen):**
> „Diese Arbeit untersucht, ob sich 3D-QSAR-Modelle verbessern lassen, wenn Konformationen mithilfe genetischer Algorithmen optimiert und verschiedene Kernelverfahren kombiniert werden. Der erste Ansatz nutzt vorab berechnete Konformationen, der zweite erzeugt sie implizit während der Optimierung. Die Ergebnisse zeigen, dass Modelle mit guter Generalisierung häufig nicht die aktive Konformation selbst, sondern Strukturen mit minimalem durchschnittlichem Abstand nutzen.“
Merkmale: Dreisatz aus Zielsetzung, Vorgehen, Ergebnis; knappe Verbphrasen („untersucht“, „nutzt“, „zeigen“); keine Ich-Form mehr, obwohl Original englisch war.
> **Protokoll Psychophysik (Prolog + Versuchsteil):**
> „Die Psychophysik, auch subjektive Sinnesphysiologie genannt, unterscheidet sich zur objektiven Sinnesphysiologie darin, dass … Trotz der Subjektivität der Messungen existieren … allgemein gültige Gesetze. … Versuchsteil I: Bestimmung der absoluten Hörschwelle … Der minimale Schalldruckpegel ab dem eine bestimmte Frequenz hörbar ist wird Hörschwelle genannt.“
Merkmale: längere, kommagetrennte Sätze, Fachbegriffe sofort erklärt, Abschnittstitel mit Doppelpunkten, Wechsel zwischen Erläuterung und kurzen Definitionen („Der minimale … wird … genannt.“).
### 3.4 Sprachführung für deutschsprachige Ergebnisse
- Auch wenn Ausgangsdaten englische Passagen enthalten, sollen generierte Texte vollständig deutsch sein. Übernehme lediglich Strukturmerkmale (z.B. Abstract-Logik, Kapitelreihenfolge) und übersetze Fachtermini nur dann, wenn es etablierte deutsche Begriffe gibt; sonst bleiben englische Fachwörter stehen („Kernel“, „Support Vector Machine“).
- Englische Quellenangaben bleiben im Original (Autor:innen + Jahr), werden jedoch in deutsche Satzstruktur eingebettet („(Boser et al. 1992; Cortes und Vapnik 1995)“).
- Vermeide Ich-Form aus der Diplomarbeit, nutze stattdessen „diese Arbeit“ oder Passive.
## 4. Formatierungsrichtlinien
| Element | Vorgabe |
|---------------------------|-------------------------------------------------------------------------|
| Überschriften | Markdown `#`, `##`, ggf. `###`, analog zu Vorlagekapiteln |
| Absätze | Leerzeile zwischen Absätzen, keine eingerückten Zeilen |
| Listen | `-` oder `*` für Bullets, nummerierte Listen für Schritte oder Fragen |
| Tabellen | Nach Bedarf, insbesondere für Parameterübersichten |
| Hervorhebungen | Sparsam `**Fett**` zur Kennzeichnung wichtiger Begriffe |
| Meta-Daten | Block aus kurzen Zeilen (Titel, Datum, Autor, Gruppe) am Dokumentanfang |
- **Bullet-Stil:** In technischen Ausarbeitungen werden häufig Asterisk-Listen eingesetzt („* H-Brücken“). Bei nummerierten Datenreihen Tabellen nutzen, keine Mischformen.
### 4.1 Layoutmuster und visuelle Elemente
- **Inhaltsverzeichnisse:** Nummerierte Kapitel mit Punktketten und Seitenzahlen am rechten Rand (z.B. „1. Einleitung …… 3“). Zwischenüberschriften (2.1, 2.2 …) stehen unterhalb und übernehmen dieselbe Formatierung.
- **Seitenzählung:** In einigen Vorlagen stehen Seitenzahlen mittig oder als „- 3 -“ unterhalb eines Blocks. Bei Bedarf kann diese Darstellung übernommen werden, insbesondere bei Seminararbeiten.
- **Doppelte Titelzeilen:** Für Proseminare/Seminare: „Proseminar: … / Thema: …“ in zwei Zeilen, gefolgt von Autor:in und Betreuer:in.
- **Blockangaben:** Abschnitte wie „Betreuer:“, „Begonnen am:“, „Beendet am:“ oder „Durchgeführt am:“ werden als eigenständige Zeilen mit Doppelpunkt geführt, häufig mit Leerzeile dazwischen.
- **Tabellen- und Abbildungslisten:** Überschriften „List of Figures“/„List of Tables“ (können auf Deutsch als „Abbildungsverzeichnis“, „Tabellenverzeichnis“ umgesetzt werden) mit zweispaltiger Auflistung.
- **Mathematische Einbettungen:** Gleichungen oder Formeln werden nach einem Doppelpunkt eingeführt und ggf. nummeriert; erläuternde Sätze folgen unmittelbar darunter.
## 5. Textbausteine pro Abschnitt
- **Einleitung/Vorbereitung:**
- „Dieses Dokument beschreibt …“
- „Im Rahmen des Praktikums wurde … durchgeführt.“
- **Material/Methoden:**
- „Es wurden X µl Y-Lösung mit Z µl … gemischt.“
- „Als Messgerät kam … zum Einsatz.“
- **Ergebnisse/Auswertung:**
- „Die Messreihe zeigte …“
- „Der beste Lauf erreichte einen RMSD von …“
- **Diskussion/Fazit:**
- „Die Ergebnisse bestätigen …“
- „Die Limitation liegt in …“
## 6. Prompt-Vorlage für KI-Systeme
```
Schreibe einen Abschnitt im Stil der HNU-Stilvorlagen. Beachte:
- Sachlicher, präziser Ton
- Klare Überschrift
- Kurzer Kontextabsatz, gefolgt von Aufzählung oder nummeriertem Ablauf
- Verwende Fachtermini und genaue Mengenangaben, falls relevant
- Schließe mit einem knappen Fazit oder Verweis auf den nächsten Schritt
```
## 7. Qualitätscheckliste
- [ ] Enthält das Dokument eine Meta- oder Einleitungssektion mit Kontext?
- [ ] Sind alle Fachbegriffe korrekt und einheitlich geschrieben?
- [ ] Werden Prozesse chronologisch geschildert?
- [ ] Sind Messwerte und Einheiten vorhanden, wo nötig?
- [ ] Gibt es eine klare Trennung von Vorbereitung, Durchführung, Ergebnis?
- [ ] Wurden Listen eingesetzt, wenn mehrere Punkte genannt werden?
Diese Stilvorlage dient als Referenzdatei für zukünftige KI-Prompts. Ergänzungen können direkt in `Stilvorlage.md` vorgenommen werden, sobald neue Textquellen ausgewertet wurden.

42
claude_Inhalt.md Normal file
View File

@@ -0,0 +1,42 @@
### 1. Einleitung (ca. 8 Seiten)
1.1 Ausgangssituation und Motivation
1.2 Problemstellung
1.3 Zielsetzung
1.4 Forschungsleitfragen
1.5 Aufbau der Arbeit
### 2. Theoretische Grundlagen (ca. 12 Seiten)
2.1 Requirements Engineering und Reverse Requirements Engineering
2.2 Large Language Models im Software Engineering
2.3 Legacy-Modernisierung und Stand der Forschung
### 3. Fallstudie c-entron GmbH (ca. 6 Seiten)
3.1 Unternehmenskontext und Legacy-Software
3.2 Migrationsstrategie und spezifische Herausforderungen
### 4. Konzeption und methodisches Vorgehen (ca. 12 Seiten)
4.1 Forschungsdesign und Vorgehensmodell
4.2 Prozessmodell für KI-gestütztes Reverse Requirements Engineering
4.3 Technologieauswahl und LLM-Konfiguration
4.4 Stakeholder-Einbindung und Datengrundlage
### 5. Prototypische Umsetzung (ca. 10 Seiten)
5.1 Architektur des LLM-Agenten
5.2 Toolchain-Integration
5.3 Governance, Datenschutz und IP
### 6. Evaluation (ca. 12 Seiten)
6.1 Evaluationskriterien und Messgrößen
6.2 Durchführung und Ergebnisse
6.3 Qualitative Bewertung durch Experten
### 7. Diskussion (ca. 8 Seiten)
7.1 Interpretation der Ergebnisse
7.2 Chancen und Grenzen des Ansatzes
7.3 Implikationen für Forschung und Praxis
### 8. Fazit und Ausblick (ca. 4 Seiten)
8.1 Zusammenfassung und Beantwortung der Forschungsfragen
8.2 Handlungsempfehlungen für c-entron GmbH
8.3 Ausblick und zukünftige Forschung

101
kapitel_1_einleitung.md Normal file
View File

@@ -0,0 +1,101 @@
# 1. Einleitung
## 1.1 Ausgangssituation und Motivation
Die digitale Transformation stellt mittelständische Softwareunternehmen vor vielfältige Herausforderungen. Insbesondere gewachsene Legacy-Systeme, die über Jahre hinweg kontinuierlich erweitert wurden, erfordern zunehmend eine strategische Neuausrichtung. Diese Systeme bilden häufig das Rückgrat geschäftskritischer Prozesse, ihre technologische Basis entspricht jedoch nicht mehr den Anforderungen moderner Cloud- und Web-Architekturen. Die Migration solcher Systeme gestaltet sich komplex, da historisch gewachsene Funktionalitäten oft nicht vollständig dokumentiert sind und implizites Wissen bei einzelnen Entwickler:innen oder langjährigen Mitarbeiter:innen verankert ist.
Die c-entron GmbH steht exemplarisch für diese Herausforderung. Das mittelständische Softwareunternehmen mit Sitz in Ulm entwickelt und vertreibt seit über zwei Jahrzehnten eine Windows-basierte ERP-Software, die speziell für IT-Systemhäuser konzipiert wurde. Die Software deckt ein breites Funktionsspektrum ab von der Auftragsverwaltung über Lagerhaltung bis hin zur Fakturierung und Projektabrechnung. Über die Jahre ist eine umfangreiche, funktionsreiche Lösung entstanden, die bei der Zielgruppe etabliert ist und einen hohen Reifegrad aufweist.
Mit einer expansiven Vertriebsstrategie und dem Ziel, neue Marktsegmente zu erschließen, steht die c-entron GmbH jedoch vor der Notwendigkeit, ihre Software-Architektur grundlegend zu modernisieren. Die native Windows-Anwendung stößt an Grenzen der Skalierbarkeit sowohl in der Entwicklung als auch im Betrieb und Roll-out. Kunden erwarten zunehmend webbasierte, plattformunabhängige Lösungen mit modernen Benutzeroberflächen und flexiblen Deployment-Optionen. Eine Migration zu einer modernen, webbasierten Plattform ist daher unumgänglich geworden.
Diese Modernisierung erfordert jedoch nicht lediglich eine technologische Neuentwicklung, sondern setzt eine umfassende Analyse der bestehenden Funktionalität voraus. Genau hier zeigt sich eine zentrale Herausforderung vieler Legacy-Systeme: Die funktionalen und nicht-funktionalen Anforderungen wurden über die Jahre nie systematisch dokumentiert. Was im Code implementiert ist, existiert oft nicht in strukturierter Form als Anforderungsspezifikation. Dies erschwert eine gezielte und vollständige Migration erheblich.
Parallel zu dieser praktischen Herausforderung hat sich in den letzten Jahren ein neues technologisches Paradigma etabliert: Large Language Models (LLMs) wie GPT-4, Claude oder Code-Llama haben gezeigt, dass sie in der Lage sind, Code zu verstehen, zu analysieren und zu dokumentieren. Diese Modelle bieten potenziell neue Möglichkeiten, die Lücke zwischen implizitem Wissen in Codebasen und expliziter Anforderungsdokumentation zu schließen. Der Einsatz von LLMs für Reverse Requirements Engineering also die nachträgliche Extraktion von Anforderungen aus bestehendem Code ist jedoch noch wenig erforscht und in der Praxis kaum systematisch erprobt.
Genau an dieser Schnittstelle zwischen praktischem Bedarf und technologischer Innovation setzt die vorliegende Arbeit an. Sie untersucht, wie KI-gestützte Verfahren eingesetzt werden können, um aus Legacy-Software strukturierte Requirements zu extrahieren und damit eine fundierte Basis für Migrationsprojekte zu schaffen. Die Arbeit adressiert damit sowohl eine wissenschaftliche Forschungslücke als auch einen konkreten Anwendungsfall mit hoher praktischer Relevanz für mittelständische Softwareunternehmen.
## 1.2 Problemstellung
Die zentrale Problemstellung dieser Arbeit ergibt sich aus der fehlenden Anforderungsdokumentation der bestehenden ERP-Software der c-entron GmbH. Diese Situation ist symptomatisch für viele über Jahre gewachsene Softwaresysteme: Während der kontinuierlichen Weiterentwicklung lag der Fokus auf der Implementierung neuer Features und der Behebung von Fehlern. Anforderungen wurden primär implizit durch Code-Commits, Ticket-Systeme und direktes Kundenfeedback kommuniziert, jedoch nicht systematisch in Form strukturierter Requirements erfasst.
Die fehlende Dokumentation erschwert die gezielte Migration erheblich, da sowohl funktionale Redundanzen als auch implizit verankerte Prozesse nur durch aufwendige manuelle Analysen identifiziert werden können. Konkret führt dies zu folgenden Problemen:
**Re-Implementationsfehler und unvollständige Migration:** Ohne vollständige Kenntnis aller implementierten Funktionen besteht das Risiko, dass bei der Neuentwicklung Features übersehen oder falsch interpretiert werden. Insbesondere Edge Cases, Sonderfälle und historisch gewachsene Workarounds sind häufig nur im Code ersichtlich und werden in manuellen Reviews leicht übersehen. Dies kann dazu führen, dass geschäftskritische Prozesse bei Kunden nach der Migration nicht mehr korrekt funktionieren.
**Hohe technische Schuld und Ineffizienzen:** Die Analyse und das Verständnis der Legacy-Codebasis binden erhebliche Entwicklungsressourcen. Entwickler:innen müssen Code lesen, verstehen und dokumentieren ein zeitintensiver Prozess, der vom eigentlichen Entwickeln der neuen Lösung ablenkt. Zudem besteht die Gefahr, dass veraltete oder redundante Funktionalitäten unreflektiert in die neue Architektur übernommen werden, anstatt sie kritisch zu hinterfragen und zu modernisieren.
**Implizites Wissen und Wissenstransfer:** Ein erheblicher Teil des Domänenwissens ist bei einzelnen langjährigen Mitarbeiter:innen verankert, die die Entstehungsgeschichte bestimmter Features kennen. Dieses implizite Wissen ist schwer zu erfassen und zu formalisieren. Bei Personalwechseln oder in größeren Teams führt dies zu Wissenslücken und Abhängigkeiten von Einzelpersonen.
**Komplexität gewachsener Codebasen:** Die über Jahre gewachsene Codebasis der c-entron GmbH weist typische Charakteristika von Legacy-Systemen auf: verschachtelte Abhängigkeiten, historisch bedingte Architekturentscheidungen, unterschiedliche Code-Stile verschiedener Entwicklungsphasen und eine enge Kopplung an spezifische Technologien. Diese Komplexität erschwert nicht nur das Verständnis, sondern auch die Extraktion klarer, modularer Anforderungen für die Neuimplementierung.
**Fehlende Traceability:** Ohne strukturierte Requirements fehlt die Nachvollziehbarkeit, warum bestimmte Funktionen existieren, welche Geschäftsprozesse sie unterstützen und welche Stakeholder-Anforderungen sie erfüllen. Dies erschwert sowohl die Priorisierung im Migrationsprojekt als auch die spätere Wartung und Weiterentwicklung der neuen Software.
Die manuelle Erhebung und Dokumentation aller Anforderungen wäre mit einem prohibitiv hohen Aufwand verbunden. Hier könnten KI-gestützte Verfahren, insbesondere Large Language Models mit ihren Code-Verständnis-Fähigkeiten, einen wesentlichen Beitrag leisten. Die zentrale Fragestellung ist daher, inwieweit LLMs in der Lage sind, aus bestehendem Quellcode systematisch und strukturiert Requirements zu extrahieren, die als Grundlage für eine Neuentwicklung dienen können.
Diese Problemstellung ist nicht nur für die c-entron GmbH relevant, sondern betrifft eine Vielzahl mittelständischer Softwareunternehmen, die vor ähnlichen Modernisierungsherausforderungen stehen. Die Entwicklung eines systematischen, KI-gestützten Ansatzes für Reverse Requirements Engineering könnte daher einen signifikanten Beitrag zur Bewältigung dieser weit verbreiteten Herausforderung leisten.
## 1.3 Zielsetzung
Das übergeordnete Ziel dieser Masterarbeit ist die Entwicklung, Implementierung und Evaluation eines KI-gestützten Verfahrens für Reverse Requirements Engineering bei Legacy-Software. Konkret soll ein LLM-basierter Agent konzipiert und prototypisch umgesetzt werden, der in der Lage ist, aus der bestehenden Codebasis der c-entron GmbH strukturierte, vollständige und nachvollziehbare Requirements zu extrahieren.
Die Arbeit verfolgt dabei mehrere spezifische Teilziele:
**Konzeptionelle Entwicklung eines Prozessmodells:** Es soll ein theoretisch fundiertes und praktisch anwendbares Prozessmodell entwickelt werden, das beschreibt, wie Unternehmen systematisch den Übergang von Legacy-Software zu modernen Architekturen mithilfe von KI-gestützter Anforderungserhebung gestalten können. Dieses Prozessmodell soll die verschiedenen Phasen von der Vorbereitung über die Analyse bis zur Validierung strukturieren und Best Practices sowie kritische Erfolgsfaktoren identifizieren.
**Technologische Evaluation und Auswahl:** Im Rahmen der Arbeit sollen aktuelle Large Language Models hinsichtlich ihrer Eignung für das Reverse Requirements Engineering evaluiert werden. Dabei sind Kriterien wie Code-Verständnis, Kontextfenster-Größe, Kontrollierbarkeit, Datenschutz-Compliance und Kosten zu berücksichtigen. Die Evaluation soll zu einer begründeten Auswahl eines Hauptmodells sowie gegebenenfalls ergänzender Modelle für spezifische Teilaufgaben führen.
**Prototypische Implementierung eines LLM-Agenten:** Basierend auf der Konzeption soll ein funktionsfähiger Prototyp entwickelt werden, der die Codebasis der c-entron GmbH analysieren und daraus Requirements extrahieren kann. Der Agent soll dabei sowohl funktionale als auch nicht-funktionale Anforderungen identifizieren, diese strukturiert beschreiben und mit Traceability-Metadaten anreichern, die eine Nachvollziehbarkeit zur Codebasis ermöglichen.
**Integration von Stakeholder-Wissen:** Da nicht alle Anforderungen insbesondere nicht-funktionale Aspekte wie Performance-Erwartungen, Sicherheitsanforderungen oder Usability-Präferenzen vollständig aus dem Code ableitbar sind, soll ein hybrider Ansatz verfolgt werden. Durch strukturierte Interviews mit relevanten Stakeholdern (Entwickler:innen, Product Owner, Kunden) sollen diese Aspekte erhoben und mit den KI-generierten Requirements abgeglichen und angereichert werden.
**Systematische Evaluation:** Die Qualität der extrahierten Requirements soll anhand definierter Kriterien systematisch evaluiert werden. Dabei sollen sowohl quantitative Metriken (z.B. Vollständigkeit im Vergleich zu einem Referenzset, Anzahl identifizierter Requirements) als auch qualitative Bewertungen durch Expert:innen der c-entron GmbH einfließen. Zentrale Evaluationskriterien sind Vollständigkeit, Verständlichkeit, Redundanzfreiheit, Stakeholder-Alignment und Aufwandsreduktion im Vergleich zu rein manuellen Verfahren.
**Governance und Compliance:** Da der Einsatz externer KI-Dienste mit sensiblen Codedaten verbunden ist, sollen auch Aspekte des Datenschutzes, des IP-Schutzes und der IT-Sicherheit adressiert werden. Die Arbeit soll Handlungsempfehlungen ableiten, wie Unternehmen KI-gestützte Analysen unter Einhaltung regulatorischer Anforderungen und Sicherheitsrichtlinien durchführen können.
**Praxistransfer und Handlungsempfehlungen:** Die Erkenntnisse aus der prototypischen Umsetzung und Evaluation sollen in konkrete Handlungsempfehlungen für die c-entron GmbH überführt werden. Dabei geht es sowohl um die operative Nutzung des entwickelten Ansatzes im Migrationsprojekt als auch um die potenzielle Integration in bestehende Toolchains (z.B. Jira, Confluence). Zudem soll die Übertragbarkeit auf andere Kontexte und Unternehmensgrößen diskutiert werden.
Zusammenfassend verfolgt die Arbeit das Ziel, einen wissenschaftlich fundierten und praktisch erprobten Beitrag zur Bewältigung einer zentralen Herausforderung bei der Modernisierung von Legacy-Software zu leisten: die systematische und effiziente Rekonstruktion von Anforderungen durch den Einsatz moderner KI-Technologien.
## 1.4 Forschungsleitfragen
Zur strukturierten Bearbeitung der Zielsetzung werden folgende Forschungsleitfragen formuliert, die sich an den zentralen Aspekten der Arbeit orientieren:
**F1: Wie können Large Language Models systematisch für Reverse Requirements Engineering in Legacy-Software eingesetzt werden?**
Diese Frage adressiert die grundlegende Konzeption des Ansatzes. Sie umfasst sowohl die technische Ebene (Wie müssen LLMs konfiguriert und gesteuert werden? Welche Prompt-Engineering-Strategien sind erfolgreich?) als auch die methodische Ebene (Welche Schritte sind notwendig? Wie wird der Prozess strukturiert? Welche Rolle spielen menschliche Expert:innen?). Die Beantwortung dieser Frage erfordert die Entwicklung eines Prozessmodells, das beschreibt, wie der KI-Einsatz in den Gesamtkontext der Anforderungserhebung eingebettet wird.
**F2: Welche funktionalen und nicht-funktionalen Anforderungen lassen sich durch eine Kombination aus KI-gestützter Codeanalyse und Stakeholder-Interviews extrahieren?**
Diese Frage fokussiert auf die inhaltliche Dimension der extrahierten Requirements. Sie untersucht, welche Arten von Anforderungen durch LLMs aus Code identifizierbar sind und wo die Grenzen der automatisierten Extraktion liegen. Insbesondere soll analysiert werden, wie funktionale Requirements (Was soll das System tun?) und nicht-funktionale Requirements (Wie soll das System beschaffen sein?) aus unterschiedlichen Quellen Code, Dokumentation, Interviews zusammengeführt werden können. Die hybride Vorgehensweise aus KI-Analyse und menschlichem Input steht hier im Fokus.
**F3: Wie bewerten Fachexpert:innen die Qualität und Vollständigkeit der durch KI gewonnenen Requirements?**
Diese Frage adressiert die Evaluation des entwickelten Ansatzes aus Sicht der praktischen Anwendbarkeit. Sie untersucht, inwieweit die extrahierten Requirements den Qualitätsansprüchen von Software-Entwickler:innen, Projektmanager:innen und anderen Stakeholdern genügen. Dabei sollen sowohl objektive Kriterien (z.B. Vollständigkeit im Vergleich zu einem Referenzset) als auch subjektive Einschätzungen (Verständlichkeit, Präzision, Nützlichkeit für die Weiterentwicklung) erfasst werden. Diese Frage ist zentral für die Beurteilung, ob der entwickelte Ansatz in der Praxis eingesetzt werden kann.
**F4: Welche Chancen und Grenzen ergeben sich beim KI-gestützten Requirements Engineering in Legacy-Umgebungen?**
Diese Frage nimmt eine kritisch-reflektierende Perspektive ein und untersucht sowohl die Potenziale als auch die Limitationen des Ansatzes. Chancen können sich etwa in der Effizienzsteigerung, der Systematisierung oder der Entdeckung bisher unbekannter Abhängigkeiten ergeben. Grenzen zeigen sich möglicherweise bei implizitem Wissen, das nicht im Code abgebildet ist, bei der Zuverlässigkeit von LLM-Ausgaben (Halluzinationen) oder bei spezifischen technischen Einschränkungen (Kontextfenster-Größe, Kosten). Die Beantwortung dieser Frage liefert wichtige Erkenntnisse für die Einordnung der Ergebnisse und die Ableitung von Handlungsempfehlungen.
Diese vier Forschungsleitfragen strukturieren die Arbeit und leiten sowohl die theoretische Fundierung als auch die empirische Untersuchung. Ihre Beantwortung erfolgt durch die Kombination aus Literaturanalyse, technologischer Evaluation, prototypischer Implementierung und systematischer Validierung im Unternehmenskontext der c-entron GmbH.
## 1.5 Aufbau der Arbeit
Die vorliegende Arbeit ist in acht Kapitel gegliedert, die aufeinander aufbauen und einen systematischen Weg von der theoretischen Fundierung über die praktische Umsetzung bis zur kritischen Reflexion beschreiben.
**Kapitel 1 Einleitung** führt in die Thematik ein, beschreibt die Ausgangssituation der c-entron GmbH, formuliert die Problemstellung und leitet daraus die Zielsetzung sowie die Forschungsleitfragen ab.
**Kapitel 2 Theoretische Grundlagen** schafft das theoretische Fundament der Arbeit. Es werden zunächst die Konzepte des Requirements Engineering und des Reverse Requirements Engineering erläutert, wobei der Fokus auf Qualitätskriterien für Requirements und den besonderen Herausforderungen bei Legacy-Software liegt. Anschließend wird der Stand der Technik zu Large Language Models im Software Engineering aufgearbeitet. Dabei werden die Funktionsweise, Fähigkeiten und Grenzen aktueller Modelle (GPT-4o, Claude 3.5, Code-Llama) diskutiert. Das Kapitel schließt mit einer systematischen Analyse des Forschungsstands zu KI-gestütztem Requirements Engineering und Legacy-Modernisierung ab und identifiziert die Forschungslücke, die diese Arbeit adressiert.
**Kapitel 3 Fallstudie c-entron GmbH** stellt den Unternehmenskontext detailliert vor. Es beschreibt das Geschäftsmodell, die Zielgruppe und die technologischen Charakteristika der bestehenden ERP-Software. Die geplante Migrationsstrategie wird ebenso erläutert wie die spezifischen Herausforderungen, die sich aus der gewachsenen Codebasis ergeben. Dieses Kapitel schafft das Verständnis für den konkreten Anwendungsfall und die praktischen Rahmenbedingungen der Arbeit.
**Kapitel 4 Konzeption und methodisches Vorgehen** entwickelt das zentrale Prozessmodell für KI-gestütztes Reverse Requirements Engineering. Zunächst werden die Anforderungen an das Verfahren definiert sowohl funktional als auch nicht-funktional. Anschließend wird das Prozessmodell mit seinen verschiedenen Phasen, Aktivitäten und Rollen beschrieben. Die Technologieauswahl und -evaluation wird dokumentiert, wobei die Entscheidung für spezifische LLMs begründet wird. Das Kapitel beschreibt zudem die methodische Einbindung von Stakeholdern durch Interviews und die Integration der Datengrundlagen (Code-Repositories, Dokumentation, Ticket-Systeme).
**Kapitel 5 Prototypische Umsetzung** dokumentiert die technische Implementierung des LLM-Agenten. Es wird die Architektur des Systems beschrieben, einschließlich der einzelnen Komponenten für Code-Analyse, Requirements-Extraktion und Traceability. Die Integration in bestehende Toolchains (Jira, Confluence) wird konzeptionell skizziert. Zudem werden die getroffenen Maßnahmen zu Governance, Datenschutz und IP-Schutz dargelegt, um den Einsatz im Unternehmenskontext rechtskonform zu gestalten.
**Kapitel 6 Evaluation** präsentiert die systematische Bewertung des entwickelten Ansatzes. Nach Darstellung des Evaluationsdesigns und der definierten Qualitätskriterien (Vollständigkeit, Verständlichkeit, Redundanzfreiheit, Stakeholder-Alignment, Aufwandsreduktion) werden die Durchführung und die Ergebnisse der Evaluation detailliert beschrieben. Dies umfasst sowohl quantitative Messungen als auch qualitative Expertenreviews. Die Ergebnisse werden strukturiert aufbereitet und bilden die empirische Basis für die nachfolgende Diskussion.
**Kapitel 7 Diskussion** interpretiert die Evaluationsergebnisse vor dem Hintergrund der Forschungsleitfragen. Es werden die Potenziale des KI-gestützten Ansatzes erörtert etwa in Bezug auf Effizienzgewinne, Systematisierung und Vollständigkeit. Gleichzeitig werden Limitationen kritisch reflektiert, darunter technische Einschränkungen, Zuverlässigkeitsfragen und organisatorische Voraussetzungen. Das Kapitel leitet aus den Erkenntnissen Implikationen sowohl für die wissenschaftliche Forschung als auch für die praktische Anwendung in Unternehmen ab.
**Kapitel 8 Fazit und Ausblick** fasst die zentralen Erkenntnisse der Arbeit zusammen und beantwortet die eingangs formulierten Forschungsleitfragen. Es werden konkrete Handlungsempfehlungen für die c-entron GmbH formuliert, die sowohl den operativen Einsatz des Prototyps als auch die Weiterentwicklung des Ansatzes betreffen. Das Kapitel schließt mit einem Ausblick auf zukünftige Forschungsfelder und Entwicklungsperspektiven im Bereich KI-gestütztes Requirements Engineering.
Diese Gliederung gewährleistet eine systematische Bearbeitung der Forschungsfragen und verbindet theoretische Fundierung mit praktischer Anwendung. Die Fallstudie bei der c-entron GmbH dient dabei als roter Faden, der alle Kapitel miteinander verknüpft und die wissenschaftlichen Erkenntnisse in einen konkreten Praxiskontext einbettet.

View File

@@ -0,0 +1,57 @@
# 1. Einleitung
## 1.1 Ausgangssituation und Motivation
In den vergangenen Jahren hat die digitale Transformation mittelständische Softwareanbieter gezwungen, ihre gewachsenen Systeme neu zu bewerten. Besonders ERP-Lösungen, die über Jahrzehnte in Windows-Umgebungen gepflegt wurden, stoßen bei Cloud-, Web- und Mobile-Szenarien an technische sowie organisatorische Grenzen. Dokumentierte Architekturentscheidungen sind selten, implizites Wissen steckt in Source-Control-Systemen oder bei einzelnen Entwickler:innen.
Die c-entron GmbH in Ulm repräsentiert diesen Kontext. Das Unternehmen betreibt seit über zwanzig Jahren eine Windows-basierte ERP-Suite für IT-Systemhäuser. Die Lösung deckt Auftragsabwicklung, Lager, Fakturierung und Projektabrechnung ab, ist aber eng mit der bisherigen Client/Server-Architektur gekoppelt. Kunden fordern inzwischen plattformunabhängige Oberflächen, Self-Service-Funktionen und flexible Betriebsmodelle. Die bestehende Anwendung limitiert Skalierung, Deployment und Benutzerführung, wodurch eine Migration auf eine webbasierte Plattform zwingend erforderlich wird.
Parallel dazu hat sich ein neues Instrumentarium etabliert. Large Language Models wie GPT-4, Claude oder Code Llama können Quellcode analysieren, Muster erkennen und textuell beschreiben. Damit entsteht die Chance, fehlende Anforderungsdokumentationen zumindest teilweise aus dem Code heraus zu rekonstruieren. Die praktische Nutzung dieses Potenzials ist bislang kaum erforscht insbesondere nicht in mittelständischen Legacy-Projekten. Diese Arbeit adressiert genau diese Lücke und untersucht, wie KI-gestützte Verfahren für eine systematische Anforderungsextraktion eingesetzt werden können.
## 1.2 Problemstellung
Im Projektumfeld der c-entron GmbH fehlen strukturierte Requirements für die bestehende ERP-Lösung. Die Analyse der Legacy-Codebasis ist zeitintensiv, personengebunden und anfällig für Auslassungen. Daraus ergeben sich mehrere Risiken:
- **Re-Implementationsfehler:** Edge Cases, Workarounds und kundenindividuelle Anpassungen sind nur im Code sichtbar. Ohne vollständige Erfassung drohen Funktionsverluste nach der Migration.
- **Technische Schuld:** Entwickler:innen investieren viel Zeit in das Verständnis historischer Strukturen, statt aktiv an der neuen Plattform zu arbeiten. Veraltete Muster werden unreflektiert übernommen.
- **Implizites Wissen:** Domänenwissen liegt bei wenigen langjährigen Mitarbeitenden. Personalwechsel führen zu Wissensverlust und Verzögerungen.
- **Komplexität der Codebasis:** Verschachtelte Abhängigkeiten, unterschiedliche Stile und technologiebedingte Zwänge erschweren eine modulare Anforderungsableitung.
- **Fehlende Traceability:** Ohne Zuordnung zwischen Code und Geschäftsprozess fehlt die Grundlage für Priorisierung, Testkonzeption und spätere Wartung.
Eine rein manuelle Rekonstruktion aller Anforderungen wäre wirtschaftlich kaum tragbar. Deshalb soll geprüft werden, ob KI-gestützte Verfahren Requirements so extrahieren können, dass sie als belastbare Basis für die Modernisierung dienen.
## 1.3 Zielsetzung
Diese Arbeit verfolgt das Ziel, ein vollständiges Vorgehen für KI-gestütztes Reverse Requirements Engineering im Umfeld eines mittelständischen ERP-Herstellers zu entwickeln und zu bewerten. Die Teilziele lauten:
- Entwicklung eines Prozessmodells, das Vorbereitung, Analyse, Validierung und Übergabe strukturiert.
- Evaluation aktueller LLMs hinsichtlich Kontextfenster, Codeverständnis, Steuerbarkeit, Kosten und Datenschutz.
- Prototypische Umsetzung eines Agenten, der Quellcode verarbeitet, Requirements formuliert und Traceability-Informationen hinterlegt.
- Integration von Stakeholder-Wissen durch Interviews, um nicht direkt aus dem Code ableitbare Anforderungen zu ergänzen.
- Definition eines Evaluationsrahmens mit quantitativen und qualitativen Kriterien (Vollständigkeit, Verständlichkeit, Redundanzfreiheit, Aufwandseinsparung).
- Ableitung von Governance- und Compliance-Leitlinien für den sicheren Umgang mit sensiblen Kundendaten.
- Formulierung konkreter Handlungsempfehlungen für die c-entron GmbH sowie Übertragbarkeit auf ähnliche Unternehmen.
## 1.4 Forschungsleitfragen
Die Zielsetzung wird über vier Forschungsleitfragen strukturiert:
- **F1 Einsatz von LLMs im Reverse Requirements Engineering:** Welche Prozessschritte, Steuerungsmechanismen und Kontrollpunkte sind notwendig, um LLMs reproduzierbar einzusetzen?
- **F2 Kombination von KI-Analyse und Stakeholder-Input:** Welche funktionalen und nicht-funktionalen Anforderungen lassen sich aus Code extrahieren, und welche Informationen müssen über Interviews ergänzt werden?
- **F3 Qualitätsbewertung der generierten Requirements:** Wie beurteilen Fachexpert:innen Vollständigkeit, Verständlichkeit, Nützlichkeit und Aufwandseinsparung der KI-Ergebnisse?
- **F4 Chancen und Grenzen des Ansatzes:** Welche Effizienzgewinne sind realistisch, wo liegen technische oder organisatorische Limitierungen, und welche Risiken (z.B. Halluzinationen, Datenschutz) müssen adressiert werden?
## 1.5 Aufbau der Arbeit
Die Arbeit ist in acht Kapitel gegliedert und folgt dem in den Vorlagen üblichen Aufbau:
1. **Einleitung:** Kontext, Problemstellung, Ziele und Forschungsfragen.
2. **Theoretische Grundlagen:** Requirements Engineering, Reverse Engineering, Large Language Models sowie Qualitätssicherungskriterien.
3. **Fallstudie c-entron GmbH:** Unternehmensprofil, Produktarchitektur, Migrationsdruck und Rahmenbedingungen.
4. **Konzeption und methodisches Vorgehen:** Prozessmodell, Technologieauswahl, Stakeholder-Einbindung und Datenbasis.
5. **Prototypische Umsetzung:** Architektur und Funktionsweise des LLM-Agenten sowie Integration in bestehende Toolchains.
6. **Evaluation:** Vorgehen, Metriken, Ergebnisse und Expertenfeedback.
7. **Diskussion:** Interpretation der Resultate, Limitationen und Implikationen für Forschung und Praxis.
8. **Fazit und Ausblick:** Zusammenfassung, Beantwortung der Forschungsfragen und Perspektiven für weitere Arbeiten.
Damit entsteht eine nachvollziehbare Linie von der Ausgangssituation über das Konzept bis zur Validierung.

View File

@@ -1,4 +1,4 @@
#let thesis_meta(title, subtitle: none, author, degree, supervisor, submission_date) = ( #let thesis_meta(title, subtitle, author, degree, supervisor, submission_date) = (
title: title, title: title,
subtitle: subtitle, subtitle: subtitle,
author: author, author: author,
@@ -27,12 +27,12 @@
#v(3cm) #v(3cm)
#text(size: 12pt)[Autor: #meta.author] #text(size: 12pt)[Autor: #meta.author]
#v(2mm) #v(2mm)
#text(size: 12pt)[Betreuung: #meta.supervisor] #text(size: 12pt)[Betreuer: #meta.supervisor]
#v(2mm) #v(2mm)
#text(size: 12pt)[Abgabedatum: #meta.submission_date] #text(size: 12pt)[Abgabedatum: #meta.submission_date]
#v(2cm) #v(2cm)
#text(size: 10pt)[Hochschule Neu-Ulm - Fakultaet fuer Wirtschaftswissenschaften] #text(size: 10pt)[University of Applied Sciences Neu-Ulm]
] ]
] ]
@@ -40,9 +40,9 @@
#set page(numbering: none) #set page(numbering: none)
#set text(font: "Times New Roman", size: 11pt) #set text(font: "Times New Roman", size: 11pt)
#set par(leading: 14pt) #set par(leading: 14pt)
#heading(level: 1)[Eigenstaendigkeitserklaerung] #heading(level: 1)[Eigenständigkeitserklärung]
Hiermit versichere ich, die vorliegende Masterarbeit selbstaendig verfasst und keine anderen als die angegebenen Quellen und Hilfsmittel verwendet zu haben. Alle woertlich oder sinngemaess uebernommenen Textstellen sind als solche gekennzeichnet. Hiermit versichere ich, die vorliegende Masterarbeit selbstständig verfasst und keine anderen als die angegebenen Quellen und Hilfsmittel verwendet zu haben. Alle wörtlich oder sinngemäß übernommenen Textstellen sind als solche gekennzeichnet.
#v(2cm) #v(2cm)
#align(left)[ #align(left)[
@@ -53,7 +53,7 @@
] ]
#let abstract(content) = [ #let abstract(content) = [
#set page(numbering: "arabic") #set page(numbering: "1")
#set text(font: "Times New Roman", size: 11pt) #set text(font: "Times New Roman", size: 11pt)
#set par(justify: true, leading: 14pt) #set par(justify: true, leading: 14pt)
#content #content
@@ -63,23 +63,24 @@
#set page( #set page(
paper: "a4", paper: "a4",
margin: (top: 25mm, bottom: 25mm, inside: 30mm, outside: 20mm), margin: (top: 25mm, bottom: 25mm, inside: 30mm, outside: 20mm),
numbering: "arabic" numbering: "1"
) )
#set text(font: "Times New Roman", size: 11pt) #set text(font: "Times New Roman", size: 11pt)
#set par(justify: true, leading: 14pt, first-line-indent: 5mm) #set par(justify: true, leading: 14pt, first-line-indent: 5mm)
#set list(indent: 6mm, spacing: 2mm) #set list(indent: 6mm, spacing: 2mm)
#set heading(numbering: "1.", depth: 3) #set enum(numbering: "a)")
#set heading(numbering: "1.1.1", depth: 3)
#show heading.where(level: 1): it => [ #show heading.where(level: 1): it => [
#set text(size: 16pt, weight: "bold") #set text(size: 16pt, weight: "bold")
#it.body #it
] ]
#show heading.where(level: 2): it => [ #show heading.where(level: 2): it => [
#set text(size: 13pt, weight: "semibold") #set text(size: 13pt, weight: "semibold")
#it.body #it
] ]
#show heading.where(level: 3): it => [ #show heading.where(level: 3): it => [
#set text(size: 12pt, weight: "semibold") #set text(size: 12pt, weight: "semibold")
#it.body #it
] ]
] ]

44
simple_style.typ Normal file
View File

@@ -0,0 +1,44 @@
#let set_simple_layout(doc) = {
set page(
paper: "a4",
margin: (top: 25mm, bottom: 25mm, inside: 25mm, outside: 20mm),
numbering: "1"
)
set text(font: "Helvetica", size: 11pt)
set par(justify: true, leading: 14pt, first-line-indent: 4mm)
set list(indent: 5mm, spacing: 1.5mm)
set heading(numbering: "1.1.1", depth: 3)
// Make headings visually distinct without extra boilerplate.
show heading.where(level: 1): it => [
#set text(size: 18pt, weight: "bold")
]
show heading.where(level: 2): it => [
#set text(size: 14pt, weight: "semibold")
]
show heading.where(level: 3): it => [
#set text(size: 12pt, weight: "bold")
]
doc
}
#let simple_title_page(title, author, date: none) = [
#set page(numbering: none)
#align(center)[
#v(6cm)
#text(size: 26pt, weight: "bold")[#title]
#v(6mm)
#text(size: 14pt, weight: "medium")[Autor: #author]
#if date != none [
#v(3mm)
#text(size: 12pt)[Datum: #date]
]
]
]
#let simple_style = (
layout: set_simple_layout,
title_page: simple_title_page,
)

29
simple_style_demo.typ Normal file
View File

@@ -0,0 +1,29 @@
#import "simple_style.typ": set_simple_layout, simple_style
#let author = "Max Mustermann"
#(simple_style.title_page)(
"Einfaches Typst-Beispiel",
author,
date: datetime.today().display()
)
#pagebreak()
#show: set_simple_layout
#set text(font: "Helvetica")
#heading(level: 1)[Einleitung]
Dies ist ein kompaktes Beispiel für einen eigenen Typst-Stil. Die Layout-Einstellungen werden in *simple_style.typ* gebündelt, und der Autor #author wird automatisch eingefügt.
#heading(level: 2)[Motivation]
Eigene Styles helfen dabei, mehrere Dokumente einheitlich zu formatieren, ohne jedes Mal alle Einstellungen wiederholen zu müssen.
#heading(level: 3)[Listen]
- Einheitliche Schrift
- Konsistente Abstände
- Automatische Nummerierung
#heading(level: 1)[Weitere Inhalte]
Nutze dieselben Funktionen für Kapitel wie für normale Texte. Die Nummerierung passt sich automatisch an, sobald mehr Abschnitte hinzukommen.