Diplomarbeit - Konstruktion von NN für Regressionsanalysen - Ausblick
von Daniel Schwamm (09.11.2000)
Die vorliegende Arbeit hat gezeigt, dass der Ansatz der Neurometrie, d.h. die
Synthese von neuronalen Netzwerken und ökonometrischen Methoden zur Approximation
von wahren Zusammenhängen zwischen unabhängigen und abhängigen Variablen
vielversprechend ist und einer näheren Betrachtung in der Zukunft lohnt. In diesem
Sinne stellt die Entwicklung des neurometrischen Werkzeugs Neurometricus nur einen
ersten Schritt dar, um die in Kapitel 2 gewonnen theoretischen Erkenntnisse, die
neuronale Netzwerke als universelle Approximatoren und damit auch als Oberklasse der
Regressionsmodelle ausweisen, in praktischer Weise umsetzen zu können. Im folgenden
werden daher einige Erweiterungsvorschläge gegeben, die die bisher eingeschlagene
Richtung konsequent weiterverfolgen. Sie basieren auf Überlegungen des Verfassers,
als auch auf Anregungen von Dritten, die sich mit der Thematik und Neurometricus
näher beschäftigt haben.
Von zunächt eher theoretischem Interesse ist der Vorschlag, statt
vorwärtsgekoppelten neuronaler Netzwerken mit monotonen Aktivierungs- und
Ausgabefunktionen auch andere neuronale Netzwerktypen auf ihre Fähigkeit hin zu
untersuchen, unbekannte Zusammenhänge zwischen Variablen zu approximieren. Es
sind darüber hinaus Modelle denkbar, die sich durch Kombination von neurometrischen
Konnektions-, Fuzzy- und/oder Expertensystemen bilden lassen. Besonders vielversprechend
wäre dabei der Sachverhalt, dass die Ergebnisse der subsymbolischen Systeme
erstmals einer direkten Interpretation durch die symbolischen Systeme zugänglich
sind, da sie nicht - wie bei derartigen Modellen sonst üblich - auf unscharfen
Heuristiken, sondern auf strengen statistischen Kriterien basieren.
Sicherlich einfacher zu realisieren als die oben aufgeführten grundlegenden
Systemänderungen sind
die Vorschläge, die den neurometrischen Modellbildungsprozess von
Neurometricus betreffen. Bei der Datenidentifikation
wäre beispielsweise eine tiefer gehende Varianzanalyse angebracht, die die
Trainingsmenge, Validierungsmenge und Prüfmenge nicht nur bezüglich
des hypothetischen gemeinsamen arithmetischen Mittels testet, sondern auch die Momente
höherer Ordnung berücksichtigt. Eine in Abhängigkeit von der Schicht-
und Funktionsstruktur generierte Zufallsinitialisierung der Parameter bei der
Spezifikation könnte die Bestimmung des globalen Minimums der Kostenfunktion
erleichtern. Momentan werden die Intervalle je Parametertyp nämlich vom Benutzer
vorgegeben oder auf einen Standardbereich festgelegt, der nur für den Tangens
Hyperbolicus und die identische Funktion optimiert ist (vergleiche Abschnitt 3.2.2).
Auf die Möglichkeit alternativer Kostenfunktionen, die bei der
Maximum-Likelihood-Schätzung Verwendung finden können, wurde bereits in
Abschnitt 3.2.2.2 hingewiesen. Des Weiteren lassen sich die Gradientenverfahren
dahin gehend verbessern, dass im Wert oszillierende Parameter erkannt und
verhindert werden, woraus ein stabileres Konvergenzverhalten resultiert. Ebenfalls
erwähnt wurde bereits, dass das Vorhandensein mehrer lokaler beziehungsweise
globaler Minima der Kostenfunktion unter Umständen Probleme bei der Diagnose der
Resampling-Schätzungen verursacht (vergleiche Abschnitt 3.2.4).
Rüger/Ossen. (1995) stellen hierzu ein Verfahren vor, mit dessen Hilfe sich aus
den multimodalen Verteilungen der Parameter Häufgkeitscluster bestimmen lassen,
auf deren Grundlage die angestrebten optimalen Parameter a posterori ermittelt werden
können (vergliche Abschnitt 3.2.3.7). In nächster Zukunft wird dieses
sogenannte Cluster-Verfahren ebenso in Neurometricus integriert werden, wie das
von Anders (1995) entwickelte Konzept der Zwei-Stufen-Schätzung. Dahinter
steht die Idee, die bei der Diagnose gewonnenen Erkenntnisse auszunutzen, indem ein
Submodell spezifiziert und geschätzt wird, welches die Residuen approximiert. Die
sich dadurch ergebenden Ergebnisse erlauben eine gezielte Schätzung der
Kovarianzmatrix der Parameter, die dann bei einer weiteren Schätzung als
Gewichtungsfaktor in die Kostenfunktion eingeht, sodass die gelieferten
Ergebnisse nicht nur konsistent, sondern auch asympotisch effizient sind.
Die Entwicklung von Neurometricus ist noch lange nicht abgeschlossen. Im ZEW werden
bereits Mitarbeiter im Umgang mit dieser Software geschult, um sie einerseits bedienen,
und andererseits auch in Zukunft auf dem aktuellen Stand der Forschung halten zu
können. In der vorliegenden Arbeit ist nur relativ knapp auf die praktischen
Anwendungsmöglichkeiten der Neurometrie eingegangen worden, denn aus
Platzgründen lag das Gewicht vor allem auf der Darstellung der technischen
Durchführbarkeit. Das rege Interesse, dass im ZEW an dieser Diplomarbeit
besteht, weist jedoch daraufhin, dass die hier vorgestellte Software Neurometricus
auch in Zukunft im Zusammenhang mit realen ökonomischen Problemstellungen
eingesetzt werden wird.