ebook img

Download (2340Kb) - ePub WU PDF

192 Pages·2015·2.32 MB·German
by  
Save to my drive
Quick download
Download
Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.

Preview Download (2340Kb) - ePub WU

ePubWU Institutional Repository Florian Drabeck Monte Carlo Simulation of Boundary Crossing Probabilities for a Brownian Motion and Curved Boundaries Thesis Original Citation: Drabeck, Florian (2005) Monte Carlo Simulation of Boundary Crossing Probabilities for a Brownian Motion and Curved Boundaries. Doctoral thesis, WU Vienna University of Economics and Business. This version is available at: http://epub.wu.ac.at/1927/ Available in ePubWU: September 2005 ePubWU, the institutional repository of the WU Vienna University of Economics and Business, is provided by the University Library and the IT-Services. The aim is to enable open access to the scholarly output of the WU. http://epub.wu.ac.at/ Monte Carlo Simulation of Boundary Crossing Probabilities for a Brownian Motion and Curved Boundaries Florian Drabeck Abstract Wir interessieren uns f(cid:252)r die Wahrscheinlichkeit, dass eine gew(cid:246)hnliche Brownsche Bewegung W(t) eine Schranke c(t) in einem endlichen Zeitintervall [0,T] (cid:252)berschreitet. Diese Wahrscheinlichkeit bezeichnen wir mit Q(c(t);T). Au(cid:255)er f(cid:252)r lineare Schranken c(t) und wenige andere Spezialf(cid:228)lle gibt es keine explizite, analytische Formel f(cid:252)r Q(c(t);T). Daher muss man bei allgemeinen Schranken numerische Verfahren anwenden um so Sch(cid:228)tzwerte f(cid:252)r die entsprechende Wahrscheinlichkeit zu bekommen. Einige Autoren verwenden zu diesem Zweck beispielsweise Integralgleichungen. Die Implementierung dieser numerischen Verfahren gestaltetsichinvielenF(cid:228)llenalsumst(cid:228)ndlich. Au(cid:255)erdemlieferneinigedieserAns(cid:228)tzekeineAbsch(cid:228)tzung f(cid:252)r die Gr(cid:246)(cid:255)e des Approximationsfehlers. Auf Grund von Fortschritten in der Forschung scheint ein anderer Weg, Q(c(t);T) zu sch(cid:228)tzen, viel versprechend: Monte Carlo Simulation. Wang und P(cid:246)tzelberger (1997) haben eine explizite, analytische Formel f(cid:252)r die Wahrscheinlichkeit, dasseineBrownscheBewegungeinest(cid:252)ckweiselineareFunktion(cid:252)berschreitetinFormeinesErwartungs- werteshergeleitet. BasierendaufdieserFormelmachenwirnunfolgendeSchritte: Zuerstn(cid:228)hernwirdie gegebene Schranke c(t) durch eine st(cid:252)ckweise lineare Funktion c (t) auf einer gleichf(cid:246)rmigen Partition m 0=t <t <...<t =T an. Dann simulieren wir Brownsche Pfade um den Erwartungswartungswert 0 1 m in der Formel der Autoren f(cid:252)r c (t) auszuwerten. Indem wir Q(c (t);T) an Stelle von Q(c(t);T) m m sch(cid:228)tzen, tritt Bias auf. Dieser kann jedoch durch eine Formel von Borovkov und Novikov (2005) abgesch(cid:228)tzt werden. W(cid:228)hrend der Bias mit einer Rate von O(1/m2) bei einem Partitionsrang m f(cid:228)llt, nimmt die Stan- √ dardabweichung, die bei Monte Carlo Simulation auftritt, nur mit einer Rate von O(1/ n) ab. Dabei beizeichnet n die Anzahl an Simulationszyklen. Es zeigt sich, dass die Standardabweichung (cid:22) bzw. die Varianz (cid:22) der prim(cid:228)re Beschr(cid:228)nkungsfaktor f(cid:252)r eine h(cid:246)here Genauigkeit der Ergebnisse ist. Das Hauptziel dieser Dissertation ist es, varianzreduzierende Verfahren zu (cid:28)nden und auszuwerten umsodieGenauigkeitdesMonteCarloSch(cid:228)tzersf(cid:252)rQ(c(t);T)zuerh(cid:246)hen. FolgendeTechnikenwerden diskutiert: • Antithetisches Sampling, • Geschichtetes Sampling, • Importance Sampling, • Kontrollvariablen, • Transformation des urspr(cid:252)nglichen Problems. Wir analysieren jede dieser Techniken gr(cid:252)ndlich von einem theoretischen Standpunkt aus. Weiters testenwirjedeTechnikempirischmittelsSimulationsexperimentenf(cid:252)rsorgf(cid:228)ltigausgew(cid:228)hlteSchranken. UmdiedarausresultierendenErgebnissebeurteilenzuk(cid:246)nnen,vergleichenwirsiemitjenenf(cid:252)rgew(cid:246)hn- liche Simulation ohne Varianzreduktion. Hierbei interessiert uns die relative Verringerung des Mean Squared Errors (= Summe aus quadriertem Bias und Varianz) f(cid:252)r ein bestimmtes Verfahren unter Beibehaltung des Rechenaufwandes. Als Ergebnis dieser Dissertation pr(cid:228)sentieren wir einige sehr gute Verfahren, die zu einer gro(cid:255)en Verbesserung der Rechengenauigkeit f(cid:252)hren. Wir diskutieren sogar ein Verfahren, durch das die Rate, mit welcher der (durch Bias verzerrte) Monte Carlo Sch(cid:228)tzer zum tats(cid:228)chlichen Ergebnis konvergiert, verbessert wird. Dar(cid:252)ber hinaus zeigen wir ein detailliertes Protokoll unserer Simulationsexperimente. Abstract WeareconcernedwiththeprobabilitythatastandardBrownianmotionW(t)crossesacurvedboundary c(t) on a (cid:28)nite interval [0,T]. Let this probability be denoted by Q(c(t);T). Except for linear functions c(t) and a few other special cases no explicit, analytic formula for Q(c(t);T) is available. Thus numerical methods need to be applied for general boundaries to obtain approximate solutions. Some authors use for example integral equations. However, most of these nu- merical methods are either intractable or di(cid:30)cult to asses in terms of their accuracy. DuetorecentadvancesinresearchanotherwayofestimatingQ(c(t);T)seemsfeasible: MonteCarlo Simulation. Wang and P(cid:246)tzelberger (1997) derived an explicit formula for the boundary crossing probability of piecewise linear functions which has the form of an expectation. Based on this formula we proceed as follows: First we approximate the general boundary c(t) by a piecewise linear function c (t) on a uni- m form partition 0 = t < t ... < t = T. Then we simulate Brownian sample paths in order to evaluate 0 1 m the expectation in the formula of the authors for c (t). The bias resulting when estimating Q(c (t);T) m m rather than Q(c(t);T) can be bounded by a formula of Borovkov and Novikov (2005). Whereas the bias decreases at a rate of O(1/m2) for a partition rank m, the standard error due to √ Monte Carlo simulation only decays at a rate of O(1/ n), where n is the number of simulation cycles. Hencethestandarddeviation(cid:22)orthevariancerespectively(cid:22)isthemainlimitingfactorwhenincreas- ing the accuracy. The main goal of this dissertation is to (cid:28)nd and evaluate variance reducing techniques in order to enhance the quality of the Monte Carlo estimator for Q(c(t);T). Among the techniques we discuss are: • Antithetic Sampling, • Strati(cid:28)ed Sampling, • Importance Sampling, • Control Variates, • Transforming the original problem. We analyze each of these techniques thoroughly from a theoretical point of view. Further, we test each technique empirically through simulation experiments on several carefully chosen boundaries. In order to asses our results we set them in relation to a previously established benchmark. We are inter- ested in the relative reduction in the mean squared error (= sum of the squared bias and variance) due to a given technique, where the computational e(cid:27)ort remains constant. As a result of this dissertation we derive some very potent techniques that yield a substantial im- provementintermsofaccuracy. Weevendiscussanapproachthatimprovestherateatwhichourbiased Monte Carlo estimator converges to the correct result. Further, we provide a detailed record of our simulation experiments. ... Thanks. I would like to thank Prof. P(cid:246)tzelberger, my supervisor, for all his time and energy he spent to support me. Especially our regular discussions of my progress were very helpful. Further, I appreciate his advise and contribu- tions, in particular those to chapters 10 and 11. I am also grateful to Prof. Geyer for his guidance throughout my studies. Finally, I want to thank my family and friends for their encouragement and patience over the last years. Contents I State of the Field 6 1 Introduction 7 2 Functions with an Explicit Formula for the BCP 10 2.1 Linear Boundaries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.2 Square Root Boundaries . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.3 Quadratic Boundaries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.4 Boundaries Obtained Through Images . . . . . . . . . . . . . . . . . . . 14 2.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.4.2 One Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.4.3 Two Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.4.4 Extension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3 Di(cid:27)erent Approaches to compute the BCP 20 3.1 General Comments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.2 Tangent Approximation and Extensions . . . . . . . . . . . . . . . . . . . 21 3.2.1 Tangent Approximation . . . . . . . . . . . . . . . . . . . . . . . 21 3.2.2 Extensions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3.3 Integral Equations: Loader an Deely (1987) . . . . . . . . . . . . . . . . 24 3.4 Integral Series: Durbin (1992) . . . . . . . . . . . . . . . . . . . . . . . . 26 3.5 Explicit Formula: Wang and P(cid:246)tzelberger (1997) . . . . . . . . . . . . . . 28 II Variance Reduction 30 4 Methods 31 4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 4.2 Bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 4.3 Monte Carlo Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.4 Optimal Resource Allocation . . . . . . . . . . . . . . . . . . . . . . . . . 40 4.4.1 Theoretical Considerations . . . . . . . . . . . . . . . . . . . . . . 40 4.4.2 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 1 4.4.3 Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.5 Computational E(cid:27)ort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.6 Comparison of Techniques . . . . . . . . . . . . . . . . . . . . . . . . . . 46 4.6.1 How We Compare Techniques . . . . . . . . . . . . . . . . . . . . 46 4.6.2 Test Functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 5 Ordinary Simulation 52 5.1 Sample Paths and Simulation . . . . . . . . . . . . . . . . . . . . . . . . 52 5.2 The Benchmark Technique . . . . . . . . . . . . . . . . . . . . . . . . . . 53 5.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 5.2.2 Simulated Conditional Transitions . . . . . . . . . . . . . . . . . . 54 5.2.3 "Classical" Transitions . . . . . . . . . . . . . . . . . . . . . . . . 55 5.2.4 Ignoring Transitions . . . . . . . . . . . . . . . . . . . . . . . . . 56 5.3 Evaluation and Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 6 Antithetic Sampling 58 6.1 An Introduction to the Technique . . . . . . . . . . . . . . . . . . . . . . 58 6.1.1 Basic Properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 6.1.2 Variance Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . 60 6.2 Evaluation and Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 7 Strati(cid:28)ed Sampling 62 7.1 An Introduction to the Technique . . . . . . . . . . . . . . . . . . . . . . 62 7.1.1 Basic Properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 7.1.2 Variance Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . 63 7.2 Strati(cid:28)cation Applied to BCP Problems . . . . . . . . . . . . . . . . . . 64 7.2.1 Foundations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 7.2.2 Brownian Bridge Construction . . . . . . . . . . . . . . . . . . . . 65 7.2.3 A First Approach . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 7.3 An Improvement of the Technique . . . . . . . . . . . . . . . . . . . . . . 69 7.4 An Alternative Algorithmic Approach . . . . . . . . . . . . . . . . . . . . 70 7.5 Evaluation and Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 8 Importance Sampling 74 8.1 An Introduction to the Technique . . . . . . . . . . . . . . . . . . . . . . 74 8.1.1 Basic Properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 8.1.2 Variance Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . 75 8.2 Change of Drift . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 8.3 Conditional One Step Survival . . . . . . . . . . . . . . . . . . . . . . . . 78 8.3.1 The Idea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 8.3.2 Theoretical Considerations . . . . . . . . . . . . . . . . . . . . . . 80 2 8.4 Conditional Survival Combined with Strati(cid:28)cation . . . . . . . . . . . . . 82 8.5 Evaluation and Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 9 Static Control Variates 87 9.1 An Introduction to the Technique . . . . . . . . . . . . . . . . . . . . . . 87 9.1.1 Basic Properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 9.1.2 Variance Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . 88 9.1.3 Possible Control Variates for BCP Problems . . . . . . . . . . . . 90 9.1.4 Computational E(cid:27)ort . . . . . . . . . . . . . . . . . . . . . . . . . 92 9.2 Tangent Approximation Based Control Variates . . . . . . . . . . . . . . 92 9.2.1 Secant Approximation . . . . . . . . . . . . . . . . . . . . . . . . 92 9.2.2 Tangent Approximation . . . . . . . . . . . . . . . . . . . . . . . 93 9.2.3 Extended Tangent Approximation . . . . . . . . . . . . . . . . . . 94 9.3 Regression Based Control Variates . . . . . . . . . . . . . . . . . . . . . . 96 9.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 9.3.2 Regression (cid:22) Straight Line . . . . . . . . . . . . . . . . . . . . . 97 9.3.3 Regression (cid:22) Daniels Boundary . . . . . . . . . . . . . . . . . . . 98 9.4 Evaluation and Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 10 Adaptive Control Variates 103 10.1 An Introduction to the Technique . . . . . . . . . . . . . . . . . . . . . . 103 10.1.1 The Idea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 10.1.2 Optimal Resource Allocation and Convergence . . . . . . . . . . . 105 10.2 Adaptive Control Variates (cid:22) Enhanced . . . . . . . . . . . . . . . . . . . 109 10.2.1 Combination with Static Control Variates . . . . . . . . . . . . . 109 10.2.2 Iterated Adaptive Control Variates . . . . . . . . . . . . . . . . . 110 10.3 Evaluation and Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 11 Girsanov Transformation 113 11.1 An Introduction to the Technique . . . . . . . . . . . . . . . . . . . . . . 113 11.1.1 The Idea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 11.1.2 Measure Transformation . . . . . . . . . . . . . . . . . . . . . . . 114 11.2 Approximating L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 T 11.2.1 Theoretical Considerations . . . . . . . . . . . . . . . . . . . . . . 116 11.2.2 Order of Convergence . . . . . . . . . . . . . . . . . . . . . . . . . 117 11.2.3 Euler Scheme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 11.2.4 Milstein Scheme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 11.2.5 Romberg Extrapolation . . . . . . . . . . . . . . . . . . . . . . . 122 11.3 Evaluation and Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 12 Conclusion 126 3 III Application 132 13 Financial Application 133 13.1 Theoretical Background . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 13.2 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 14 Algorithms 138 14.1 General Comments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 14.2 The Benchmark Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . 139 14.2.1 Algorithm 1.1ct: Conditional Transitions . . . . . . . . . . . . . . 139 14.2.2 Performance of Algorithm 1.1ct . . . . . . . . . . . . . . . . . . . 140 14.2.3 Algorithm 1.0: "Classical" Transitions - The Benchmark . . . . . 141 14.2.4 Performance of Algorithm 1.0 . . . . . . . . . . . . . . . . . . . . 142 14.3 Antithetic Sampling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 14.3.1 Algorithm 1.1A . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 14.3.2 Performance of Algorithm 1.1A . . . . . . . . . . . . . . . . . . . 144 14.4 Strati(cid:28)ed Sampling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 14.4.1 Algorithm 1.1S: A First Approach . . . . . . . . . . . . . . . . . . 145 14.4.2 Performance of Algorithm 1.1S . . . . . . . . . . . . . . . . . . . 146 14.4.3 Algorithm 1.2S: An Improvement of the Technique . . . . . . . . 147 14.4.4 Accuracy and Number of Strata . . . . . . . . . . . . . . . . . . . 148 14.4.5 Performance of Algorithm 1.2S . . . . . . . . . . . . . . . . . . . 149 14.4.6 Algorithm 1.3S: An Alternative Algorithmic Approach . . . . . . 150 14.5 Importance Sampling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 14.5.1 Algorithm 1.1I: Change of Drift . . . . . . . . . . . . . . . . . . . 151 14.5.2 Performance of Algorithm 1.1I . . . . . . . . . . . . . . . . . . . . 152 14.5.3 Algorithm 1.2I: Conditional One Step Survival . . . . . . . . . . . 154 14.5.4 Performance of Algorithm 1.2I . . . . . . . . . . . . . . . . . . . . 155 14.5.5 Algorithm 1.3I: Conditional Survival Combined with Strati(cid:28)cation 156 14.5.6 Performance of Algorithm 1.3I . . . . . . . . . . . . . . . . . . . . 157 14.6 Static Control Variates . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 14.6.1 Expectation of Control Terms . . . . . . . . . . . . . . . . . . . . 158 14.6.2 Algorithm 1.1C: Secant Approximation . . . . . . . . . . . . . . . 159 14.6.3 Performance of Algorithm 1.1C . . . . . . . . . . . . . . . . . . . 160 14.6.4 Algorithm 1.2C: Tangent Approximation . . . . . . . . . . . . . . 161 14.6.5 Performance of Algorithm 1.2C . . . . . . . . . . . . . . . . . . . 162 14.6.6 Algorithm 1.3C: Extended Tangent Approximation . . . . . . . . 163 14.6.7 Performance of Algorithm 1.3C . . . . . . . . . . . . . . . . . . . 164 14.6.8 Algorithm 1.4C: Regression (cid:22) Straight Line . . . . . . . . . . . . 165 14.6.9 Performance of Algorithm 1.4C . . . . . . . . . . . . . . . . . . . 166 4

Description:
wir mit Q(c(t); T). Auÿer für lineare Schranken c(t) und wenige andere Spezialfälle gibt es keine explizite, analytische. Formel für Q(c(t); T). Daher muss man bei
See more

The list of books you might like

Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.