[Next]:  Angewandte Finanzmathematik  
 [Up]:  Projektbeschreibungen  
 [Previous]:  Projektbeschreibungen  
 [Contents]   [Index] 


Inferenz für komplexe statistische Modelle

Bearbeiter: P. Mathé , H.-J. Mucha , J. Polzehl , V. Spokoiny  

Kooperation: D. Auer (Max-Planck-Institut für Psychiatrie München), K. Hahn (GSF-IBB, München), F. Godtliebsen (Universität Tromsø, Norwegen), G. Sebastiani (CNR/IAC Rom, Italien), F. Baumgart, T. Kaulisch (Leibniz-Institut für Neurobiologie, Magdeburg), H. Reindell (circuLAB reindell & partner, Frankfurt/Main), A. Juditski (INRIA Grenoble, Frankreich), M. Hristache (Universität Rennes, Frankreich), L. Dümbgen (Medizinische Universität Lübeck), J. Horowitz (University of Iowa, USA), S. Sperlich (Universität Carlos III, Madrid, Spanien), B. Grund (University of Minnesota, USA), O. Bunke, B. Droge, W. Härdle, H. Herwartz, G. Teyssière (SFB 373, Humboldt-Universität zu Berlin), E. Heimerl (Universität Salzburg, Österreich), S. Hizir, D. Mercurio (Humboldt-Universität zu Berlin), M. Nussbaum (Cornell University, USA), S. V. Pereverzev (Ukrainische Akademie der Wissenschaften, Kiew, Ukraine)

Förderung: SFB 373 ,,Quantifikation und Simulation Ökonomischer Prozesse``, Humboldt-Universität zu Berlin; Volkswagen-Stiftung, RiP-Programm in Oberwolfach

Beschreibung der Forschungsarbeit: Viele interessante Anwendungen statistischer Verfahren in Ökonomie, Finanz-, Natur- und Lebenswissenschaften basieren auf komplexen hochdimensionalen Modellen und teilweise großen Datenmengen. Aufgabe der statistischen Analyse ist entweder eine qualitative Beschreibung der Daten oder eine Reduktion der Dimensionalität als Ausgangspunkt für eine weitere Analyse der Daten.

Inferenz für komplexe statistische Modelle beinhaltet eine Vielzahl von Problemstellungen und Anwendungen. Diesem Schwerpunkt sind die Teilprojekte

zugeordnet.


Adaptive Verfahren der Bildverarbeitung (Bearbeiter: V. Spokoiny, J. Polzehl).  

Moderne Untersuchungsmethoden in Technik, Medizin, Umweltschutz, Meteorologie und Geologie liefern vielfach Daten in Form von zwei- und dreidimensionalen Bildern. Beispiele solcher Verfahren sind Satellitenaufnahmen, Ultraschall, Magnet-Resonanz (MR)-Aufnahmen.

In der Regel sind die gewonnenen Daten fehlerbehaftet, es entsteht das Problem, aus den beobachteten Bildern die wesentliche, zugrunde liegende Struktur herauszufiltern. Diese Aufgabenstellung ist von vielen Autoren unter Nutzung verschiedener statistischer Modellansätze für verschiedene spezifische Anforderungen an das rekonstruierte Bild untersucht worden. Ziele der Rekonstruktion sind z. B. ein Entrauschen der Bilder, das Finden homogener Bereiche und das Verstärken von Kontrasten. Im Rahmen des Projektes wird ein neuartiges lokal adaptives Glättungsverfahren (AWS, Adaptive Weights Smoothing) entwickelt, dass über in diesem Kontext besonders wünschenswerte Eigenschaften, wie Erhaltung von Ecken und Kanten (Kontrast) und ,,optimale`` Reduktion des Rauschens, verfügt. Wir betrachten das folgende Regressionsmodell
\begin{displaymath}
Y=f(x) + \epsilon\end{displaymath} (2)
mit Y - beobachtete Werte an den Bildpunkten, $x\in {\IR}^d$ - Bildpunkte im d-dimensionalen Raum und $\epsilon$ - zufällige Beobachtungsfehler. Unser Verfahren bestimmt für jeden Bildpunkt iterativ geeignete Umgebungen V(x) und schätzt f(x) durch eine Mittelung der Beobachtungswerte über V(x). Simulative Untersuchungen anhand künstlicher Bilder zeigen eine Überlegenheit gegenüber klassischen Glättungsverfahren, insbesondere in Situationen, in denen die Funktion f Sprünge aufweist und sich gut durch eine stückweise konstante Funktion approximieren lässt (siehe [26]). Abb. 1 illustriert die Ergebnisse beim Entrauschen einer freundlicherweise von F. Godtliebsen bereitgestellten MR-Aufnahme.


 
Abb. 1: Original und Rekonstruktion einer MR-Aufnahme. 

\ProjektEPSbildNocap {0.75\textwidth}{godtlieb.ps}

Die AWS zugrunde liegenden Ideen erlauben die effiziente Bearbeitung wesentlich komplizierterer Probleme. Funktionelle Magnet-Resonanz-Bilder (fMRI)  entstehen bei Experimenten zur Bestimmung funktioneller Zentren im Gehirn. Hierbei werden Patienten einer Folge von Signalen ausgesetzt. Gleichzeitig wird eine Zeitreihe von Magnet-Resonanz-Bildern aufgezeichnet. In den Voxeln durch das Signal aktivierter Regionen des Gehirns lassen sich induzierte Signale (BOLD-Effekt) beobachten. Die Qualität der Einzelbilder ist aufgrund der kurzen Zeitabstände zwischen den Aufnahmen relativ schlecht. Gegenüber der häufig verwendeten voxelweisen Analyse ermöglicht unsere Herangehensweise eine erhöhte Sensitivität durch eine zusätzliche räumlich adaptive Glättung. Die in [27] vorgeschlagene Methodik kombiniert die in [26] entwickelte Idee adaptiver Gewichte mit einer Reduktion (in Zeitrichtung) der Dimensionalität  der Daten unter Erhalt der für die Problemstellung wichtigen Information.


 
Abb. 2: Signalerkennung in fMRI.  

\ProjektEPSbildNocap {.9\textwidth}{viola3a.ps}

Abb. 2 zeigt die detektierten Signale für einen fMRI-Datensatz (912 Bilder à 64x128 Voxel, MPI für kognitive Neurowissenschaften Leipzig). Eine Anwendung der gleichen Methodik auf die Klassifikation von Gewebe anhand der zeitlichen Wirkung eines Kontrastmittels in dynamischen MR-Experimenten wird ebenfalls in [27] beschrieben. Erste Untersuchungen in Zusammenarbeit mit H. Reindell betreffen Segmentierung und Konturdetektion für Ultraschallbildsequenzen.

Effektive Dimensionsreduktion    bei hochdimensionalen Daten (Bearbeiter: V. Spokoiny).

Single- und Multi-Index-Modelle werden in multivariaten Problemen häufig benutzt, um das so genannte ,,curse of dimensionality``-Problem zu vermeiden. Diese Modelle verallgemeinern die klassischen linearen Modelle und können als guter Kompromiss zwischen oft zu restriktiven linearen Modellen und zu variablen rein nichtparametrischen Modellen angesehen werden. Interessierende Parameter der statistischen Analyse in diesen Modellen sind typischerweise Index-Vektoren. Derartige Indices dienen häufig zur Beschreibung makroökonomischer Daten in Ökonomie und Finanzwirtschaft. Typische Beispiele sind Börsenindices wie DAX oder Dow-Jones. Große Banken berücksichtigen 5 000-10 000 Finanzprodukte. Eine Dimensionsreduktion durch Zusammenfassung dieser Produkte zu Indices ermöglicht sowohl eine Risikobewertung als auch eine Optimierung von Portfolios. Die existierenden Schätzmethoden für Index-Vektoren können als direkt und indirekt klassifiziert werden. Für indirekte Methoden, wie z. B. die nichtparametrische Kleinste-Quadrat-Schätzung oder die nichtparametrische Maximum-Likelihood-Schätzung, ist deren asymptotische Effizienz gezeigt worden. Die praktische Anwendbarkeit dieser Methoden ist allerdings sehr beschränkt, da die Berechnung der Schätzungen auf ein hochdimensionales Optimierungsproblem führt, siehe [12]. Im Gegensatz dazu sind direkte Methoden, wie z. B. Average-Derivative-Schätzungen oder Sliced Inverse Regression (SIR), einfach zu berechnen. Effizienzresultate gelten für diese Schätzungen allerdings nur unter sehr restriktiven Modellannahmen, siehe u. a. [3, 30, 32].

Eine andere Methode zum Schätzen des Index-Vektors im Single-Index-Modell wird in [11] vorgeschlagen. Diese Methode kann als rekursive Verbesserung der Average-Derivative-Schätzung angesehen werden. Die vorliegenden Resultate zeigen, dass nach einer logarithmischen Anzahl von Iterationen die sich ergebende Schätzung root-n-konsistent ist. Die Methode ist voll adaptiv hinsichtlich des Versuchsplans und der unbekannten Glattheitseigenschaften der Link-Funktion. Die Resultate gelten unter sehr schwachen Modellannahmen.

Eine Verallgemeinerung der Methode für den Fall eines Multi-Index-Modells erlaubt gleichzeitig eine effektive Reduktion der Dimensionalität und das Schätzen des zugehörigen Index-Raumes.

Statistische Inferenz für zeitinhomogene Finanzzeitreihen (Bearbeiter: V. Spokoiny, J. Polzehl).  

Log-Returns $\, R_{t}\,$ erhält man als Logarithmus des Quotienten zweier aufeinanderfolgender Werte eines zugrunde liegenden Preisprozesses. Der Prozess der Log-Returns wird üblicherweise mittels der Conditional Heteroscedasticity -Annahme

\begin{eqnarray*}
R_{t} = \sigma_{t} \varepsilon_{t}\end{eqnarray*}

beschrieben, wobei $\, \varepsilon_{t} \,$ ein Fehlerprozess (z. B. weißes Rauschen) und $\, \sigma_{t} \,$ der Volatilitäts- Prozess ist. Ein typisches Ziel der statistischen Analyse ist eine Kurzzeitvorhersage des Volatilitätsprozesses. Dieser Prozess wird meist mittels einer parametrischen Annahme modelliert ([5]). Beispiele solcher Modellannahmen sind ARCH, verallgemeinerte ARCH (GARCH) oder stochastische Volatilitätsmodelle. Alle diese Modelle sind zeithomogen und daher nicht in der Lage, strukturelle Änderungen des zugrunde liegenden Prozesses nachzuvollziehen. Wir entwickeln alternative Methoden, die auf der Annahme lokaler Zeithomogenität basieren. Das heißt wir nehmen an, dass der zugrunde liegende Prozess innerhalb eines unbekannten Zeitintervalls annähernd zeithomogen ist. Diese Annahme führt zu Verfahren, die anhand der Daten ein Intervall annähernder Homogenität bestimmen. Diese Intervalle können dann zum Schätzen oder zur Vorhersage der Volatilität benutzt werden, siehe [9, 17, 29]. Abb. 3 demonstriert das Verhalten einer für zeitinhomogene ARCH-Modelle entwickelten AWS-Methode.


 
Abb. 3: Logarithmische Returns, Schätzung und Vorhersage der Volatilität der täglichen GBP/DM-Wechselkurse im Zeitraum 1988 - 2000.  

\ProjektEPSbildNocap {0.8\textwidth}{rgbpdm.ps}

Die Arbeit [7] betrachtet die Modellierung der Volatilität multipler Preisprozesse in spekulativen Märkten. Dies schließt Probleme der Dimensionsreduktion und Datentransformation ein.

Diskriminanzanalyse (Bearbeiter: V. Spokoiny, J. Polzehl). 

Ziel der Diskriminanzanalyse ist die Zuordnung von Objekten zu bekannten Populationen. Die Beschreibung der Populationen erfolgt in der Regel anhand von Trainingsstichproben, d. h. von Beobachtungen bekannter Populationszugehörigkeit, auf Grundlage der Beobachtung einer großen Anzahl von Merkmalen. Die Zuordnung eines neuen Objektes zu einer Population wird anhand seiner Merkmalsausprägungen und eines statistischen Modells vorgenommen. Derartige Probleme treten in natürlicher Weise in verschiedensten Anwendungsfeldern (Ökonomie, Finanzwirtschaft, Risikomanagement, Lebenswissenschaften) auf.

Das zugrunde liegende Problem reduziert sich im Wesentlichen auf das Schätzen von Dichten bzw. Dichtequotienten für die verschiedenen Populationen aus den Trainingsstichproben. Die ursprünglich in [26] für Regressions- und Bildverarbeitungsprobleme vorgeschlagene Adaptive-Weights-Smoothing-(AWS)-Methode erweist sich durch ihre Dimensionsfreiheit und Adaptivität hinsichtlich der unbekannten Glattheitseigenschaften des zugrunde liegenden Modells als eine mögliche Schätzmethode in diesem Kontext. Eine Version der AWS-Methode für Diskriminanzanalyse-Probleme mit zwei und mehr Gruppen liegt vor ([28]).

Modellwahl und Goodness-of-Fit-Probleme (Bearbeiter: V. Spokoiny, J. Polzehl).   

Jede statistische Analyse basiert auf Annahmen über das zugrunde liegende Modell. Damit stellen sich sofort zwei grundlegende Fragen:

1.
Im Fall mehrerer alternativer Modellannahmen entsteht die Frage, wie anhand der Daten das für die Problemstellung, z. B. Anpassung oder Vorhersage, geeignetste Modell zu wählen ist;
2.
zu überprüfen, ob die Daten den getroffenen Annahmen entsprechen.

Das Hauptproblem vieler Anwendungen liegt in der hohen Komplexität des zu beschreibenden Zusammenhanges. Dies bedingt, dass die zu überprüfenden Annahmen mit Sicherheit nicht gelten. Die zu untersuchende Frage kann folgendermaßen formuliert werden: Ist die Abweichung zwischen tatsächlichem und hypothetischem Modell signifikant für die aufgrund der statistischen Analyse zu treffenden Entscheidungen, und welches der alternativen hypothetischen Modelle ist das geeignetste?

Wir entwickeln verschiedene datenbasierte Modellselektions- und Testverfahren für verschiedene Anwendungen, einschließlich

Clusteranalyse (Bearbeiter: H.-J. Mucha). 

Die Statistik-Software ClusCorr98® zur automatischen Klassifikation, statistischen Datenanalyse und multivariaten Visualisierung wurde weiterentwickelt. Auf der weltgrößten Computermesse CeBIT'99 in Hannover konnte die auf die statistische Clusteranalyse von Massendaten gerichtete Arbeit mit dem Ausstellungsexponat ,,Data Mining mit ClusCorr98®`` im Rahmen des Forschungsmarktes Berlin erfolgreich präsentiert werden.     Einige der zahlreichen Kontakte mündeten in Zusammenarbeit an konkreten Praxisproblemen und sollen in Projekten weitergeführt werden, siehe auch [19].

Ziel des Data Mining ist, in sehr umfangreichen Sammlungen numerischer und alphanumerischer Daten versteckte nützliche Information zu extrahieren. Der Zugriff auf interne oder externe Datenbanken erfolgt über eine Excel-Umgebung. Wesentliche Fortschritte bei der Datenanalyse mit ClusCorr98® betreffen die Entwicklung und Programmierung rechenzeiteffektiver Simulationstechniken. Die numerischen und graphischen Simulationsergebnisse werden in einer einzigen Darstellung zusammengefasst:


 
Abb. 4: Simulationsergebnisse für einen Datensatz aus der Archäologie.  

\ProjektEPSbildNocap {.9\textwidth}{baselin0.ps}

Abb. 4 beschreibt ausführlich die Referenzverteilung des gewählten Stabilitätsmaßes für verschiedene Clusteranzahlen unter Normalverteilung (nichtinformativ). Die rechte Skale beschreibt die .05-, .5- (Median) und .95-Quantile und die Mittelwerte, während die linke Skale zur Standardabweichung der Mittelwerte korrespondiert. Für den Test/Vergleich mit den konkreten Daten wird in der Regel der Median der zugehörigen Simulationsergebnisse zusätzlich in die Darstellung aufgenommen (Linie im oberen Teil). Auf diese automatische Validierung der Ergebnisse der Clusteranalyse aufbauend wurde eine Entscheidungshilfe zur Metrik- und Methodenwahl in der Clusteranalyse bereitgestellt. Die an den Anwender gegebenen Empfehlungen können durch Simulationsuntersuchungen unterstützt werden. Den Praxisanforderungen entsprechend wurden auch neue Clusteranalysemodelle und Graphikvarianten verfügbar gemacht. Die Statistiksoftware ClusCorr98® ist in Visual Basic for Applications geschrieben und unter Windows oder Windows NT lauffähig.

Numerik statistischer schlecht gestellter Probleme (Bearbeiter: P. Mathé). 

Beim Entwurf numerischer Verfahren zur Lösung konkreter Probleme ist es wichtig, gegebene a priori-Informationen effektiv (optimal) zu nutzen. Dieser Aspekt hat Bedeutung sowohl bei der Festlegung von Diskretisierungen als auch bei der Wahl geeigneter Algorithmen bei gegebener Diskretisierung, da sich hier entscheidet, ob mit den diskreten Daten effizient gearbeitet wird oder ob ein unnötiger ,,computational overhead`` erzeugt wird. In Zusammenarbeit mit S. V. Pereverzev ist dieser Problemkreis anhand schlecht gestellter, insbesondere statistischer Probleme

\begin{displaymath}
y_\delta= A x + \delta\xi, \end{displaymath}

beziehungsweise der Diskretisierung

\begin{displaymath}
y_{\delta,i}=\langle y_\delta,\varphi_i\rangle = 
\langle Ax,\varphi_i\rangle + 
\delta\xi_i,\quad i=1,\dots,n, \end{displaymath}

untersucht worden, wobei A injektiv und kompakt entlang einer Hilbert-Skale wirkt und $\delta\gt$das Rauschniveau der fehlerbehafteten Daten $y_{\delta,i}$ beschreibt. Üblicherweise wird $\xi$ als Gauß'sches weißes Rauschen angenommen. Derartige Fragen sind in der Statistik oft untersucht worden, siehe etwa [2, 13, 23]. Die vorgeschlagenen numerischen Verfahren basierten in der Regel auf als bekannt vorausgesetzten Singulärwertzerlegungen des Operators A, siehe in [15]. Eine Ausnahme bildete die Arbeit [25], in der Histogramme als Daten angenommen wurden. Dies war Anlass, die Effizienz von voll diskreten numerischen Verfahren zu untersuchen, wenn die Daten $y_{\delta,i}$ in Form von Werten auf gegebenem orthogonalen Design $\{\varphi_1,
\dots,\varphi_n\}$ vorliegen. Im Rahmen eines von der Volkswagenstiftung geförderten RiP-Aufenthalts in Oberwolfach wurde der oben skizzierte Problemkreis untersucht, siehe [16]. Für Probleme in Hilbertskalen gelang es, einheitlich für deterministisches und stochastisches Rauschen

Projektliteratur:

  1.  O. BUNKE, B. DROGE, J. POLZEHL, Model selection, transformations and variance estimation in nonlinear regression, Statistics, 33 (1999), pp. 197-240.
  2.  D. L. DONOHO, Nonlinear solution of linear inverse problems by wavelet-vaguelette decomposition, Appl. Comp. Harmonic Analysis, 2 (1995), pp. 101-126.
  3.   N. DUAN, K.-C. LI, Slicing regression: A link-free regression method, Ann. Statist., 19 (1991), pp. 505-530.
  4.   L. DÜMBGEN, V. SPOKOINY, Optimal nonparametric testing of qualitative hypotheses, Discussion paper No. 99, 1999, Sonderforschungsbereich 373, Humboldt-Universität zu Berlin, eingereicht.
  5.   C. GOURIEROUX, ARCH Models and Financial Applications, Springer, New York, 1997.
  6.   B. GRUND, J. POLZEHL, Semiparametric lack-of-fit tests in an additive hazard regression model, Discussion paper No. 98, 1999, Sonderforschungsbereich 373, Humboldt-Universität zu Berlin.
  7.   W. HÄRDLE, H. HERWARTZ, V. SPOKOINY, Multiple volatility modelling, in Vorbereitung.
  8.   W. HÄRDLE, S. SPERLICH, V. SPOKOINY, Component analysis for additive models, Discussion paper No. 52, 1997, Sonderforschungsbereich 373, Humboldt-Universität zu Berlin, eingereicht.
  9.   W. HÄRDLE, V. SPOKOINY, G. TEYSSI`ERE, Adaptive estimation for a time inhomogeneous stochastic-volatility model, Discussion paper No. 6, 2000, Sonderforschungsbereich 373, Humboldt-Universität zu Berlin.
  10.   J. HOROWITZ, V. SPOKOINY, On adaptive, rate-optimal test of a parametric model against a nonparametric alternative, WIAS-Preprint No. 542, 1999, erscheint in: Econometrica.
  11.   M. HRISTACHE, A. JUDITSKI, V. SPOKOINY, Direct estimation of the index coefficients in a single-index model, WIAS-Preprint No. 409, 1999, eingereicht.
  12.   R. L. KLEIN, R. H. SPADY, An efficient semiparametric estimator for binary response models, Econometrica, 61 (1993), pp. 387-421.
  13.   A. P. KOROSTELEV, A. B. TSYBAKOV, Minimax Theory of Image Reconstruction, Lecture Notes in Statist., 82, Springer, New York, 1993.
  14.   N. LANGE, Tutorial in biostatistics: Statistical approaches to human brain mapping by functional magnetic resonance imaging, Statistics in Medicine, 15 (1996), pp. 389-428.
  15.   B. A. MAIR, F. H. RUYMGAART, Statistical inverse estimation in Hilbert scales, SIAM J. Appl. Math., 56 (1996), No. 5, pp. 1424-1444.
  16.   P. MATH´E, S. V. PEREVERZEV, Optimal discretization of inverse problems in Hilbert scales. Regularization and self-regularization of projection methods, Manuskript, 1999, eingereicht.
  17.   D. MERCURIO, V. SPOKOINY, Statistical inference for time-inhomogeneous volatility models, in Vorbereitung.
  18. H.-J. MUCHA, Clusteranalyse mit Mikrocomputern, Akademie Verlag, Berlin, 1992.
  19.   H.-J. MUCHA, J. DOLATA, H.-G. BARTEL, Klassifikation von 613 Proben als Referenzen für die Herstellungsprovenienzen römischer Baukeramik im nördlichen Obergermanien, Mainzer Arch. Zeitschr., im Druck.
  20. H.-J. MUCHA, S. HIZIR, Cluster Analysis, Arbeitspapier, Berlin, 1999.
  21. H.-J. MUCHA, Classification and Multivariate Graphics: Models, Software and Applications, WIAS-Report No. 10, (H.-J. Mucha, H. H. Bock, Hrsg.), Berlin, 1996, pp. 97-105.
  22. \dito 
, Entscheidungshilfe zur Metrik- und Methodenwahl in der Clusteranalyse, in: Datenanalyse und numerische Klassifikation, Hamburger Beiträge zur Modellierung und Simulation, Heft 139, Hamburg, 2000, pp. 53-66.
  23.   M. NUSSBAUM, Degrees of ill-posedness in stochastic and deterministic noise models, in: Algorithms and Complexity for Continuous Problems, Dagstuhl-Seminar-Report No. 101, 1994.
  24.   M. NUSSBAUM, S. V. PEREVERZEV, The degree of ill-posedness in stochastic and deterministic noise models, WIAS-Preprint No. 509, 1999.
  25.   D. W. NYCHKA, D. D. COX, Convergence rates for regularized solutions of integral equations from discrete noisy data, Ann. Statist., 17 (1989), No. 2, pp. 556-572.
  26.   J. POLZEHL, V. SPOKOINY, Adaptive weights smoothing with applications to image restoration, erscheint in: J. Roy. Statist. Soc., Ser. B.
  27.   \dito 
, Vector adaptive weights smoothing with applications to MRI, WIAS-Preprint No. 519, 1999.
  28.   \dito 
, Discrimination analysis by adaptive weights smoothing, in Vorbereitung.
  29.   \dito 
, Volatility modelling by adaptive weights smoothing, in Vorbereitung.
  30.   J. L. POWELL, J. M. STOCK, T. M. STOKER, Semiparametric estimation of index coefficients, Econometrica, 57 (1989), pp. 1403-1430.
  31.   V. SPOKOINY, Data-driven testing the fit of linear models, WIAS-Preprint No. 472, 1998.
  32.   T. M. STOKER, Consistent estimation of scaled coefficients, Econometrica, 54 (1986), pp. 1461-1481.



 [Next]:  Angewandte Finanzmathematik  
 [Up]:  Projektbeschreibungen  
 [Previous]:  Projektbeschreibungen  
 [Contents]   [Index] 

LaTeX typesetting by I. Bremer
1/16/2001