[Next]:  Forschungsgruppe Kontinuumsmechanik  
 [Up]:  Projektbeschreibungen  
 [Previous]:  Angewandte Finanzmathematik  
 [Contents]   [Index] 


Numerik komplexer stochastischer Modelle

Bearbeiter: P. Mathé , W. Metzner , K. K. Sabelfeld , J.-H. Zacharias-Langhans  

Kooperation: S. Orszag (Yale University, USA), T. Vesala (Universität Helsinki, Finnland), P. K. Yeung (Georgian Institute of Technology, USA), O. Kurbanmuradov (Physikalisch-Technisches Institut, Turkmenische Akademie der Wissenschaften, Aschchabad), I. A. Shalimova (Institute of Computational Mathematics and Mathematical Geophysics, Russische Akademie der Wissenschaften, Novosibirsk, Russland), G&W INSTRUMENTS (Berlin), Y. Kashtanov (Universität St. Petersburg, Russland)

Förderung: BMBF, INTAS, NATO

Beschreibung der Forschungsarbeit: Dieses Projekt untersucht die Grundlagen der Modellierung und Numerik von komplexen physikalischen Phänomenen. Komplexe physikalische Zusammenhänge können oftmals durch stochastische Modelle so gut beschrieben werden, dass quantitative Voraussagen über deren Verhalten gemacht werden können. Typische Anwendungen hierfür sind Phänomene der Ausbreitung von Substanzen, Aerosolen in stark fluktuierenden physikalischen Feldern, aber auch der Wellenausbreitung in Medien mit vielen Streuzentren. Das Studium derartiger Modelle ist algorithmisch orientiert. Um in konkreten Anwendungen quantitative Vorhersagen machen zu können, ist eine effiziente, fundierte Numerik unerlässlich. Die numerischen Forschungen im Projekt konzentrieren sich sowohl auf Modelle des Transports von Substanzen und Aerosolpartikeln in turbulenten Medien, wie der Grenzschicht der Atmosphäre, als auch auf hochdimensionale Integrationsprobleme, bei denen eine direkte Simulation der zufälligen Einflüsse nicht möglich ist und nur asymptotisch erwartungstreue Schätzungen verfügbar sind (Markov Chain, Monte Carlo).

Stochastische Modelle für den Transport von Aerosolpartikeln in der Grenzschicht der turbulenten Atmosphäre (Bearbeiter: K. K. Sabelfeld). 

Die Menschheit ist mit einer zunehmenden Anzahl von lokalen, regionalen und globalen Umweltproblemen konfrontiert, die mit erheblichen ökologischen, ökonomischen und sozialen Auswirkungen verbunden sind. Die Entwicklung dieser Umweltprobleme wird durch Wechselbeziehungen, Abhängigkeiten und Rückkopplungen geprägt, die ihrerseits die Wirkungskette zwischen Ursache und Folgen der einzelnen Umweltprobleme extrem komplex gestalten. Jede Inhomogenität im Gas kann zur Differenz von Geschwindigkeiten der Partikel führen. Das heißt die relative Geschwindigkeit zwischen zwei Partikeln ist positiv, es ergibt sich eine Kollision und danach eine Koagulation. Wir erwähnen folgende Phänomene, die zur Koagulation führen: Braun'sche Bewegung, Gravitationsfall, freie molekulare Kollision, turbulente Bewegung der tragenden Strömung, akkustische Wellen, die Gradienten der Dichte der Konzentration und der Temperatur, die elektrische Ladung. Folgende Schwerpunkte sind von besonderem Interesse in diesem Projekt:

Als aussichtsreiches Anwendungsgebiet, für das die entwickelten stochastischen Algorithmen und insbesondere die ,,Inverse Trajectory``-Technik effektiv sein sollten, wird das so genannte ,,Footprint-Problem`` ([2], [7]) betrachtet. Dieses Problem kann so formuliert werden: Es ist nötig, den relativen Beitrag verschiedener Quellen der Aerosol-Partikel in einem fixierten Punkt zu berechnen. Dabei wird angenommen, dass die Quellen groß genug sind. (z. B. Auspuffgase). In diesem Fall simuliert man die Trajektorien rückwärts: Die Trajektorien starten aus dem Detektor und enden in den Quellen. Gegenstand des Projekts ist die Konstruktion und Entwicklung neuer stochastischer Modelle und Monte-Carlo-Methoden für die Modellierung des Transports von Substanzen und Aerosolpartikeln in der Grenzschicht der Atmosphäre mit Anwendungen bei der Aufforstung.

Die Aerosol-Partikel wachsen aus dem Gas in einem komplizierten Phasenübergang. Das erste Stadium, die Nukleation, wird mit zwei Hauptmethoden beschrieben; die erste ist die klassische thermodynamische Methode, die die kritische Größe der stabilen Monomeren liefert. Leider kann man mit dieser Methode nur einfachste Systeme behandeln. In der zweiten Methode benutzt man die Smoluchowski-Gleichung mit entsprechenden Verdampfungs- und Kondensations-Koeffizienten.

In beiden Verfahren verwendet man Monte-Carlo-Methoden. Das zweite Stadium ist die Koagulation: Die stabilen Monomeren wachsen über die Kondensation und Kollisionen mit anderen Partikeln. Die Zahl der Gleichungen im Smoluchowski-System ist enorm. Tatsächlich besteht ein Partikel von der Größe eines Mikrons aus etwa 109 - 1010 Atomen, und es ist praktisch nicht möglich, diese Information zu speichern (was aber bei deterministischen Methoden notwendig ist). Die stochastische Beschreibung hat hier den Vorteil, nicht alle Partikel zu behandeln und zu speichern. Ein wichtiges Problem stellt die Abschätzung der Konvergenzgeschwindigkeit des stochastischen Systems, das aus N Partikeln besteht, dar.

Die Geschwindigkeitskomponenten $u_i( {\bf x} ,t),\ gt i=1,2,3$, in turbulenten Strömungen werden in der statistischen Strömungsmechanik als zufällige Felder angesehen. Deshalb sind die Substanzkonzentrationen auch stochastische Felder. In Anwendungen ist man nicht an Realisierungen dieser Felder, sondern an Mittelwerten von Konzentrationen und ihren Flüssen interessiert. Man verwendet zwei grundlegende Methoden für die Berechnung dieser Mittelwerte:

(i)
Die klassische halbempirische Beschreibung dieser Probleme basierend auf der Mittelwertbildung und dem Verschluss-Verfahren und
(ii)
Lagrange'sche stochastische Simulationsmethoden.  
Die halbempirische Betrachtung ist ausführlich untersucht und fortgeschritten in der Praxis, aber das Verschluss-Problem ist bis heute nicht gelöst. Außerdem sind die Anwendungsgebiete sehr beschränkt und sogar oft unklar. Die Haupteinschränkung der halbempirischen Betrachtung besteht darin, dass die räumlichen Maßstäbe der Turbulenz viel kleiner sein sollen als die räumlichen Maßstäbe der Substanzkonzentrationsfelder.

Die Lagrange'schen stochastischen Simulationsmethoden sind frei von der oben erwähnten Einschränkung, und das Verschluss-Problem taucht hier nicht auf. Das Hauptproblem besteht in der Berechnung der Lagrange'schen Übergangsdichte

\begin{displaymath}
p_L( {\bf x} ,t; {\bf x} _0,t_0)=\langle \delta( {\bf x} - {\bf X} (t; {\bf x} _0,t_0))\rangle,\end{displaymath}

wobei man durch $ {\bf X} (t)= {\bf X} (t; {\bf x} _0,t_0)$, $t\ge t_0$, die Lagrange'sche Trajektorie bezeichnet, die im Punkt $ {\bf x} _0$ zur Zeit t=t0 startet, und die das folgende Problem löst:

\begin{displaymath}
\frac { d {\bf X} (t)} { d t}= {\bf u} ( {\bf X} (t),t),\quad t\gt t_0, \quad
 {\bf X} (t_0)= {\bf x} _0~. \end{displaymath}

Hier bezeichnen wir durch $ {\bf u} ( {\bf x} ,t)=(u_1( {\bf x} ,t),u_2( {\bf x} ,t),u_3( {\bf x} ,t))$den Geschwindigkeitsvektor.

Kennt man die Dichte $p_L( {\bf x} ,t; {\bf x} _0,t_0)$,so kann man die Mittelwerte von Konzentrationen und ihren Flüssen berechnen. Die Konzentration ist durch folgendes Integral gekennzeichnet ([7]):

  \begin{eqnarray}
\hspace{-0.3cm}\langle c( {\bf x} ,t)\rangle= \bar c( {\bf x} ,...
 ...Dd {\bf x} _0
\, q( {\bf x} _0,t_0)p_L( {\bf x} ,t; {\bf x} _0,t),\end{eqnarray}

wobei $q( {\bf x} _0,t_0)$ die Quelleverteilung ist.

Die wichtigste Frage ist daher: Wie kann man die Lagrange'sche Dichte $p_L( {\bf x} ,t; {\bf x} _0,t)$ bei stochastischen Verfahren konstruieren? Es gibt zwei grundlegende Methoden im Rahmen der stochastischen Beschreibung.

Die erste, die Euler'sche, basiert auf der Simulation der Euler'schen Geschwindigkeit mit gegebener Verteilung; man modelliert die Bewegung der Partikel-Trajektorien mit Hilfe zufällig generierter Geschwindigkeits-Samples. Im Lagrange'schen Schema simuliert man die Lagrange'schen Trajektorien wie einen stochastischen Prozess ([5]) (betrachtet als eine Lösung eines Systems stochastischer Differentialgleichungen).

In Euler'schen Methoden ist es im Prinzip möglich, die Geschwindigkeit bei der DNS-Methode (Direct Numerical Simulation Method) zu simulieren. Die Pionierarbeiten von S. Orszag, der die DNS-Methode vorschlug, behandelten Navier-Stokes-Gleichungen. Leider ist diese Methode nicht anwendbar, wenn die Reynolds-Zahl sehr groß ist. Das bedeutet, man kann die völlig entwickelte Turbulenz nicht mit DNS (wie auch nicht mit anderen numerischen Methoden) simulieren. Deshalb ist die stochastische Behandlung der völlig entwickelten Turbulenz sehr wichtig. Die stochastische Theorie der Turbulenz wurde wesentlich von Taylor, Richardson, Kolmogorov und Obukhov entwickelt.

Die stochastische Simulation des turbulenten Transports, die auf der Randomized-Spektral-Darstellung der Euler'schen turbulenten Geschwindigkeit basiert, wurde zuerst von R. Kraichnan betrachtet. Dieses Modell wurde von weiteren Autoren entwickelt, ausgerichtet und verallgemeinert, in [13] wurde eine weitere Methode, die so genannte ,,Backward Trajectory Technique`` eingeführt. Diese Methode ermöglicht es, die Konzentration des Schadstoffes und die Lagrange'sche Korrelationsfunktion effektiv zu berechnen. Leider ist diese Methode, die auf Monte-Carlo-Simulation der Euler'schen Geschwindigkeit basiert, nur anwendbar, wenn die Geschwindigkeitsfelder homogen und gaußverteilt sind.

In praktischen Anwendungen, z. B. auf Schichten der Atmosphäre, sind die Geschwindigkeitsfelder im Wesentlichen inhomogen, deshalb sind Lagrange'sche Stochastische Modelle (LSM) entwickelt worden, die inhomogene wie auch nichtgaußsche Geschwindigkeitsverteilungen berücksichtigen.

Wir beschreiben nun die wichtigsten Prinzipien, auf denen die LSM-Methode basiert. In der LSM-Beschreibung wird die wahre Trajektorie $ {\bf X} (t)$ durch eine simulierte Trajektorie $\hat {\bf X} (t)$approximiert, die wie eine Lösung einer stochastischen Differentialgleichung des Ito-Typs konstruiert ist (siehe z. B. [6], [10], [15]):

  \begin{eqnarray}
d\hat X_i&=&\hat V_idt,\quad
d\hat V_i=a_i\,dt+b_{ij}\,dB_j(t), \quad i=1,2,3, \end{eqnarray}

wobei mit $\hat V_1,\hat V_2,\hat V_3$ die Komponenten der simulierten Lagrange'schen Geschwindigkeit und mit B1(t), B2(t),B3(t) die unabhängigen Standard-Wiener-Prozesse bezeichnet sind; ai und bij sind im Allgemeinen Funktionen von $(t,\hat {\bf X} ,\hat {\bf V} )$. Wir benutzen hier die Summen-Konvention.

Im idealen Fall wünscht man, dass wahre und simulierte Trajektorien identisch sind: $\hat V_i(t)=u_i(\hat {\bf X} (t),t)$.Die Konstruktion derartiger Modelle ist nicht realistisch. Daher benutzt man die folgenden wichtigen Prinzipien. Das Consistency Principle erfordert, dass die Statistik simulierter Trajektorien $\hat {\bf X} (t), \hat {\bf V} (t)$und wahrer Trajektorien $ {\bf X} (t), {\bf V} (t)$ die gleichen Eigenschaften hat. Die Lagrange'schen Geschwindigkeitskomponenten sind wie $ {\bf V} (t)= {\bf u} ( {\bf X} (t),t)$ definiert.

Nach der Kolmogorov'schen Analogie-Theorie gilt $\langle dV_i dV_j\rangle=\delta_{ij}\, C_0\varepsilon dt,
\quad i,j=1,2,3,$wobei wir folgende Bezeichnungen benutzen: dVi für die Wachstumskomponente der Lagrange'schen Geschwindigkeit, $\varepsilon$ ist die Mittelrate der Dissipation der Turbulenzenergie, C0 ist eine universelle Konstante ([8]) und $\delta_{ij}$ ist das Kronecker'sche Symbol. Durch $\langle \cdot\rangle$ bezeichnet man den Erwartungswert. Es heißt, dass (z. B. siehe [15]) in (2) die Koeffizienten bij durch $b_{ij}=\sqrt{C_0\varepsilon}\delta_{ij}$ definiert sind.

Die ,,well-mixed condition`` ist in der folgenden Form gegeben ([15]):

  \begin{eqnarray}
\frac {\partial p_E} {\partial t}+u_i\frac {\partial p_E} {\partial x_i}+\frac {\partial } {\partial u_i}(\phi_i)=0.\end{eqnarray}

Die Funktion $p_E(u_1,u_2,u_3; {\bf x} ,t)$ ist die Wahrscheinlichkeitsdichte der Euler'schen Geschwindigkeit im Punkt $ {\bf x} $ zur Zeit t. Es wird vorausgesetzt, dass diese Funktion gegeben ist. In der Praxis nimmt man häufig an, dass sie gaußverteilt ist. Die Gleichung (3) ist ein System für die unbekannte Vektorfunktion $\phi=(\phi_1,\phi_2,\phi_3)$,die die Driftglieder $\phi_1, \phi_2, \phi_3$ nicht eindeutig definiert. Tatsächlich können wir eine ganze Reihe von Lösungen durch Addieren von $\phi$ zu einer beliebigen Vektorfunktion, deren Divergenz im Geschwindigkeitsraum null ist ([9]), bekommen. Es ist bekannt, dass die ,,well-mixed``-Bedingung nur in der Dimension eins das LS-Modell eindeutig definiert ([15]). Im mehrdimensionalen Raum besteht folgendes Problem, das Eindeutigkeitsproblem genannt wird: Gesucht sind zusätzliche mathematische Bedingungen, die auch physikalische Bedeutungen haben, und zusammen mit der ,,well-mixed``-Bedingung eindeutig die Funktionen $\phi_u, \phi_v, \phi_w$ bestimmen. Das heißt: Gesucht werden die Beschleunigungs-Koeffizienten au, av, aw, die das LS-Modell eindeutig durch (3) definieren.

Wir haben in [6] das Eindeutigkeitsproblem gelöst und haben ein neues LS-Modell (KS-Modell) vorgeschlagen, das mit dem Thomson-Modell und den experimentellen Messungen gut übereinstimmt. Ausführliche Vergleiche mit anderen Modellen und experimentelle Messungen sind in Tabelle 1 dargestellt.


Model C0 a b c Pr
Thomson [15] 3. 0.85 0.65 0.25 0.47
4. 0.71 0.54 0.22 0.6
5. 0.61 0.46 0.2 0.74
7. 0.48 0.35 0.16 1.
Flesch & Wilson [2] 3. 0.85 0.65 0.26 0.45
5. 0.61 0.46 0.2 0.8
7. 0.48 0.35 0.16 0.9
KS [6] 3. 0.73 0.55 0.17 0.64
4. 0.59 0.44 0.15 0.82
5. 0.5 0.36 0.14 1.
7. 0.37 0.27 0.11 1.43
Reynolds [11] 3. 0.13 0.09 0.04 5.26
5. 0.18 0.13 0.06 3.3
7. 0.21 0.15 0.07 2.86
MEASUREMENTS
Garger & Zhukov [3] 0.58 0.44 0.19
Chandhry & Meroney [1] 0.4
Rider [12] 0.83
Gurvich [4] 1.25
Tabelle 1: Universelle Konstanten a, b, c und Pr (definiert in [8] und [6]), berechnet für verschiedene Modelle, verglichen mit experimentellen Messungen.

Simulation der Ultraschallausbreitung (Bearbeiter: P. Mathé, W. Metzner, J.-H. Zacharias-Langhans).  

Im Rahmen dieses BMBF-Projekts wurde untersucht, inwieweit sich Techniken aus der Laser-Tomografie auf Ultraschall-Untersuchungen übertragen lassen. Während herkömmliche Ultraschallverfahren lediglich reflektierende Grenzflächen auflösen können, soll das alternative Verfahren zu einer Charakterisierung des von der Schallwelle durchlaufenen Mediums führen. Unmittelbare Anwendungsmöglichkeiten bieten sich in der Medizin, z. B. bei der Krebsdiagnose, sowie in der Materialprüfung, z. B. bei Asbest-Sanierungen. Zwei verschiedene mathematische Modelle, die Telegrafengleichung und die Strahlungstransportgleichung, wurden untersucht, inwieweit sie einerseits die Pulsverformungen bei der Schallausbreitung richtig beschreiben und andererseits die vom Laser her bekannten Eigenschaften aufweisen.

Die bei den von R. Willenbrock und W. Metzner durchgeführten Messungen beobachteten deutlichen Signaldeformationen lassen sich weder durch die Telegraphengleichung noch durch die Randbedingungen, siehe [17], bei Materialübergängen erklären. Dies haben Simulationen, basierend auf der TLM-Methode, gezeigt. Vielmehr werden die Signalveränderungen vom Messgerät selbst und der Geometrie des Versuchsaufbaus bestimmt. Durch Einbeziehung einer (hypothetischen) Gerätefunktion in die Simulation und durch Vergleichsmessungen in Wasser wurde dies bestätigt.

Andererseits haben numerische Experimente mit zufälligen aber frequenzbandbeschränkten Dichte- bzw. Geschwindigkeitsprofilen gezeigt, dass die Signale charakteristische Deformationen erfahren können, zum Beispiel Pulsverbreiterung und Coda-Ausbildung. Wir sind der Ansicht, dass in diesem Bereich die gesuchte Analogie zur Lasertomografie gezogen werden kann. Um dies zu bestätigen, müssen erheblich aufwendigere Messungen durchgeführt werden. Die technischen Voraussetzungen hierzu wurden von der Firma G&W-Instruments erst teilweise geschaffen.

Die mathematischen Untersuchungen zur Lösung der Telegraphengleichung   mit Monte-Carlo-Methoden ([16, 18]) führten zur Analyse von stochastischen Prozessen auf Lie-Gruppen, die auf bestimmte Weise durch einen Poissonprozess gestört werden ([19]). Die dem gestörten Prozess entsprechende Differentialgleichung ist im Spezialfall die bereits früher untersuchte Strahlungstransportgleichung. Neben einer Entwicklung nach Potenzen des Störparameters ergibt sich durch diesen Zugang die Möglichkeit zur Analyse der Gleichung mit fourieranalytischen Methoden.

Dynamische Monte-Carlo-Verfahren (Bearbeiter: K. K. Sabelfeld, P. Mathé, J.-H. Zacharias-Langhans). 

Viele physikalisch relevante Größen sind entweder Mittelwerte

\begin{displaymath}
I(f):=\int f(x) d\mu(x),\end{displaymath}

oder aber deren Bestimmung erfordert als Teilaufgabe Mittelwerte (Integralgleichungen, Transportgleichungen, statistische Physik). Oftmals ist die unmittelbare Simulation der die Mittel bestimmenden Verteilung nicht möglich. Genannt seien hier Mittel bezüglich Gibbs'scher Maße. In derartigen Anwendungen ist die Erzeugung von Zufallszahlen als Markovketten, die asymptotisch die gegebene Verteilung realisieren, ein Ausweg, der historisch in [25] begründet wurde. Dies führt auf Integrationsverfahren mittels Markovketten, wobei obiges Mittel I(f) approximativ bestimmt wird durch

\begin{displaymath}
I(f)\approx \frac 1 N \sum_{j=1}^N f(X_j),\end{displaymath}

mit $X_1,X_2,\dots,X_N$ Realisierungen einer Markovkette. In konkreten Anwendungen gibt es viele Markovketten, die die gleiche asymptotische Verteilung realisieren. Dann kommt es darauf an, Eigenschaften und Parameter zu identifizieren, die die Konvergenzeigenschaften der Verfahren bestimmen. Im Mittelpunkt der Untersuchungen stand die Frage der Robustheit, d. h. der Gleichmäßigkeit der Konvergenz auf Klassen von Integranden, sowie der asymptotischen Varianz, des Monte-Carlo-Fehlers. Ergebnisse konnten erzielt werden für den Fall gleichmäßig ergodischer Markovketten, siehe [22]. Für derartige Ketten wurde gezeigt: Für den Fall diskreter Zustandsräume sind ähnliche Untersuchungen früher gemacht worden, [21]. Im allgemeinen Fall, und erst da klaffen die verschiedenen Ergodizitätsbegriffe auseinander, sind derartige Ergebnisse neu. Erste Ergebnisse sind bei der Übertragung der gewonnenen Resultate auf eine Verallgemeinerung, das Single Histogram Sampling, siehe ([20]), erzielt. Durch diesen Ansatz ist es möglich, effektive Aussagen über Mittel zu erhalten, wenn die Stichprobe einer nicht korrekten ,,Temperatur`` entspricht (Extrapolation). Ziel ist es, wie im oben beschriebenem Sinne, geschlossene Fehlerabschätzungen anzugeben. Bisher sind nur einzelne Komponenten des Gesamtfehlers untersucht ([26]).

Eng verwandt mit Markov-Chain-Monte-Carlo-Verfahren ist Latin Hypercube Sampling, ein Monte-Carlo-Integrationsverfahren, siehe [24], [27], das im Hochdimensionalen durch gleichzeitige Stratifikation aller Richtungen die Varianz reduziert. Dies kann nur durch eine den Markovketten verwandte innere Abhängigkeit der Stichprobe erreicht werden. Eine detaillierte Analyse der numerischen Eigenschaften ([23]) ergab jedoch, dass die geringere asymptotische Varianz eng mit jedem einzelnen Integranden verknüpft, gleichmäßig auf Klassen nicht nachweisbar ist. Bei zusätzlichen Glattheitsannahmen (H1[0,1]d) kann die Gleichmäßigkeit jedoch erzwungen werden. Diese Untersuchungen ergänzen die bisherige, vorwiegend statistisch orientierte Forschung um numerische Aspekte.

Projektliteratur:

  1.  F. H. CHANDHRY, R. N. MORONEY, A laboratory study of diffusion in stably stratified flow, Atmos. Environ., 7 (1973), pp. 441-454.
  2.  T. K. FLESCH, J. D. WILSON, A two-dimensional trajectory-simulation model for non-Gaussian, inhomogeneous turbulence within plant canopies, Boundary Layer Meteorology, 61 (1992), pp. 349-374.
  3.  E. K. GARGER, G. P. ZHUKOV, On vertical pollution dispersion from a local source in the atmospheric surface layer, Izv. Akad. Nauk SSSR, Ser. Fiz. Atmosfer i Okeana, 22 (1986), No. 2, pp. 115-123.
  4.  A. S. GURVICH, Vertical profiles of the wind velocity and temperature in the atmospheric surface layer, Izv. Akad. Nauk SSSR, Ser. Fiz. Atmosfer i Okeana, 1 (1965), No. 1.
  5.  O. A. KURBANMURADOV, K. K. SABELFELD, One-particle stochastic Lagrangian model for turbulent dispersion in horizontally homogeneous turbulence, WIAS-Preprint No. 403, 1998.
  6.  \dito 
, Stochastic Lagrangian models for turbulent dispersion in atmospheric boundary layer, WIAS-Preprint No. 535, 1999.
  7.  O. A. KURBANMURADOV, U. RANNIK, K. K. SABELFELD, T. VESALA, Direct and adjoint Monte Carlo algorithms for the footprint problem, Monte Carlo Methods and Applications, 5 (1999), No. 2, pp. 85-112.
  8.   A. S. MONIN, A. M. YAGLOM, Statistical Fluid Mechanics, 2, M.I.T. Press, Cambridge, Massachusetts, 1975.
  9.  P. MONTI, G. LUEZZI, A closure to derive a three-dimensional well-mixed trajectory model for non-Gaussian, inhomogeneous turbulence, Boundary Layer Meteorology, 80 (1995), pp. 311-331.
  10.  S. B. POPE, Lagrangian PDF methods for turbulent flows, Annu. Rev. Fluid Mech., 26 (1994), pp. 23-63.
  11.  A. M. REYNOLDS, On trajectory curvature as a selection criterion for valid Lagrangian stochastic dispersion models, Boundary Layer Meteorology, 88 (1998), pp. 77-86.
  12.  N. E. RIDER, Eddy diffusion of momentum, water vapour and heat near the ground, Philos. Trans. Roy. Soc., London Ser. A, 246 (1954), pp. 481-501.
  13.  K. K. SABELFELD, Monte Carlo Methods in Boundary Value Problems, Springer Verlag, New York - Heidelberg - Berlin, 1991, 283 S.
  14.   K. K. SABELFELD, I. A. SHALIMOVA, Spherical Means for PDEs, VSP, Utrecht, The Netherlands, 1997.
  15.  D. J. THOMSON, Criteria for the selection of stochastic models of particle trajectories in turbulent flows, J. Fluid. Mech., 180 (1987), pp. 529-556.
  16.  M. KAC, Some stochastic problems in physics and mathematics, Magnolia Petroleum Company Colloq. Lect. Pure Appl. Sci., No. 2, 1956.
  17.  Y. N. KASHTANOV, A model of reflected pulse, Manuskript, 1998.
  18.  A. KISY´NSKI, On M. Kac's probabilistic formula for the solution of the Telegraph Equation, Ann. Polon. Math., XXIX (1974), pp. 259-272.
  19.  H. ZACHARIAS-LANGHANS, Perturbations by a Poisson process, Vortrag im Seminar ,,Stochastische Algorithmen``, 1999.
  20.   A. M. FERRENBERG, R. H. SWENDSEN, New Monte Carlo technique for studying phase transitions, Phys. Rev. Lett., 61 (1988), pp. 2635-2638.
  21.   A. FRIGESSI, C.-R. HWANG, L. YOUNES, Optimal spectral structure of reversible stochastic matrices, Monte Carlo methods and the simulation of Markov random fields, Ann. Appl. Probab., 2 (1992), No. 3, pp. 610-628.
  22.   P. MATH´E, Numerical integration using Markov chains, Monte Carlo Meth. Appl., 5 (1999), No. 4, pp. 325-343.
  23.   \dito 
, Hilbert space analysis of Latin Hypercube Sampling, Manuskript, 1999.
  24.   M. D. MCKAY, W. J. CONOVER, R. J. BECKMAN, A comparison of three methods for selecting values of output variables in the analysis of output from a computer code, Technometrics, 21 (1979), pp. 239-245.
  25.   N. METROPOLIS, A. W. ROSENBLUTH, M. N. ROSENBLUTH, A. H. TELLER, E. TELLER, Equations of state calculations by fast computing machines, J. Chem. Phys., 21 (1953), pp. 1087-1092.
  26.   M. E. J. NEWMAN, R. G. PALMER, Error estimation in the histogram Monte Carlo method, Manuskript 1999, http://xxx.uni-augsburg.de/ps/cond-mat/9804306.
  27.  M. STEIN, Large sample properties of simulations using Latin Hypercube Sampling, Technometrics, 29 (1987), pp. 143-151.



 [Next]:  Forschungsgruppe Kontinuumsmechanik  
 [Up]:  Projektbeschreibungen  
 [Previous]:  Angewandte Finanzmathematik  
 [Contents]   [Index] 

LaTeX typesetting by I. Bremer
1/16/2001