ePubWU Institutional Repository Florian Drabeck Monte Carlo Simulation of Boundary Crossing Probabilities for a Brownian Motion and Curved Boundaries Thesis Original Citation: Drabeck, Florian (2005) Monte Carlo Simulation of Boundary Crossing Probabilities for a Brownian Motion and Curved Boundaries. Doctoral thesis, WU Vienna University of Economics and Business. This version is available at: http://epub.wu.ac.at/1927/ Available in ePubWU: September 2005 ePubWU, the institutional repository of the WU Vienna University of Economics and Business, is provided by the University Library and the IT-Services. The aim is to enable open access to the scholarly output of the WU. http://epub.wu.ac.at/ Monte Carlo Simulation of Boundary Crossing Probabilities for a Brownian Motion and Curved Boundaries Florian Drabeck Abstract Wir interessieren uns f(cid:252)r die Wahrscheinlichkeit, dass eine gew(cid:246)hnliche Brownsche Bewegung W(t) eine Schranke c(t) in einem endlichen Zeitintervall [0,T] (cid:252)berschreitet. Diese Wahrscheinlichkeit bezeichnen wir mit Q(c(t);T). Au(cid:255)er f(cid:252)r lineare Schranken c(t) und wenige andere Spezialf(cid:228)lle gibt es keine explizite, analytische Formel f(cid:252)r Q(c(t);T). Daher muss man bei allgemeinen Schranken numerische Verfahren anwenden um so Sch(cid:228)tzwerte f(cid:252)r die entsprechende Wahrscheinlichkeit zu bekommen. Einige Autoren verwenden zu diesem Zweck beispielsweise Integralgleichungen. Die Implementierung dieser numerischen Verfahren gestaltetsichinvielenF(cid:228)llenalsumst(cid:228)ndlich. Au(cid:255)erdemlieferneinigedieserAns(cid:228)tzekeineAbsch(cid:228)tzung f(cid:252)r die Gr(cid:246)(cid:255)e des Approximationsfehlers. Auf Grund von Fortschritten in der Forschung scheint ein anderer Weg, Q(c(t);T) zu sch(cid:228)tzen, viel versprechend: Monte Carlo Simulation. Wang und P(cid:246)tzelberger (1997) haben eine explizite, analytische Formel f(cid:252)r die Wahrscheinlichkeit, dasseineBrownscheBewegungeinest(cid:252)ckweiselineareFunktion(cid:252)berschreitetinFormeinesErwartungs- werteshergeleitet. BasierendaufdieserFormelmachenwirnunfolgendeSchritte: Zuerstn(cid:228)hernwirdie gegebene Schranke c(t) durch eine st(cid:252)ckweise lineare Funktion c (t) auf einer gleichf(cid:246)rmigen Partition m 0=t <t <...<t =T an. Dann simulieren wir Brownsche Pfade um den Erwartungswartungswert 0 1 m in der Formel der Autoren f(cid:252)r c (t) auszuwerten. Indem wir Q(c (t);T) an Stelle von Q(c(t);T) m m sch(cid:228)tzen, tritt Bias auf. Dieser kann jedoch durch eine Formel von Borovkov und Novikov (2005) abgesch(cid:228)tzt werden. W(cid:228)hrend der Bias mit einer Rate von O(1/m2) bei einem Partitionsrang m f(cid:228)llt, nimmt die Stan- √ dardabweichung, die bei Monte Carlo Simulation auftritt, nur mit einer Rate von O(1/ n) ab. Dabei beizeichnet n die Anzahl an Simulationszyklen. Es zeigt sich, dass die Standardabweichung (cid:22) bzw. die Varianz (cid:22) der prim(cid:228)re Beschr(cid:228)nkungsfaktor f(cid:252)r eine h(cid:246)here Genauigkeit der Ergebnisse ist. Das Hauptziel dieser Dissertation ist es, varianzreduzierende Verfahren zu (cid:28)nden und auszuwerten umsodieGenauigkeitdesMonteCarloSch(cid:228)tzersf(cid:252)rQ(c(t);T)zuerh(cid:246)hen. FolgendeTechnikenwerden diskutiert: • Antithetisches Sampling, • Geschichtetes Sampling, • Importance Sampling, • Kontrollvariablen, • Transformation des urspr(cid:252)nglichen Problems. Wir analysieren jede dieser Techniken gr(cid:252)ndlich von einem theoretischen Standpunkt aus. Weiters testenwirjedeTechnikempirischmittelsSimulationsexperimentenf(cid:252)rsorgf(cid:228)ltigausgew(cid:228)hlteSchranken. UmdiedarausresultierendenErgebnissebeurteilenzuk(cid:246)nnen,vergleichenwirsiemitjenenf(cid:252)rgew(cid:246)hn- liche Simulation ohne Varianzreduktion. Hierbei interessiert uns die relative Verringerung des Mean Squared Errors (= Summe aus quadriertem Bias und Varianz) f(cid:252)r ein bestimmtes Verfahren unter Beibehaltung des Rechenaufwandes. Als Ergebnis dieser Dissertation pr(cid:228)sentieren wir einige sehr gute Verfahren, die zu einer gro(cid:255)en Verbesserung der Rechengenauigkeit f(cid:252)hren. Wir diskutieren sogar ein Verfahren, durch das die Rate, mit welcher der (durch Bias verzerrte) Monte Carlo Sch(cid:228)tzer zum tats(cid:228)chlichen Ergebnis konvergiert, verbessert wird. Dar(cid:252)ber hinaus zeigen wir ein detailliertes Protokoll unserer Simulationsexperimente. Abstract WeareconcernedwiththeprobabilitythatastandardBrownianmotionW(t)crossesacurvedboundary c(t) on a (cid:28)nite interval [0,T]. Let this probability be denoted by Q(c(t);T). Except for linear functions c(t) and a few other special cases no explicit, analytic formula for Q(c(t);T) is available. Thus numerical methods need to be applied for general boundaries to obtain approximate solutions. Some authors use for example integral equations. However, most of these nu- merical methods are either intractable or di(cid:30)cult to asses in terms of their accuracy. DuetorecentadvancesinresearchanotherwayofestimatingQ(c(t);T)seemsfeasible: MonteCarlo Simulation. Wang and P(cid:246)tzelberger (1997) derived an explicit formula for the boundary crossing probability of piecewise linear functions which has the form of an expectation. Based on this formula we proceed as follows: First we approximate the general boundary c(t) by a piecewise linear function c (t) on a uni- m form partition 0 = t < t ... < t = T. Then we simulate Brownian sample paths in order to evaluate 0 1 m the expectation in the formula of the authors for c (t). The bias resulting when estimating Q(c (t);T) m m rather than Q(c(t);T) can be bounded by a formula of Borovkov and Novikov (2005). Whereas the bias decreases at a rate of O(1/m2) for a partition rank m, the standard error due to √ Monte Carlo simulation only decays at a rate of O(1/ n), where n is the number of simulation cycles. Hencethestandarddeviation(cid:22)orthevariancerespectively(cid:22)isthemainlimitingfactorwhenincreas- ing the accuracy. The main goal of this dissertation is to (cid:28)nd and evaluate variance reducing techniques in order to enhance the quality of the Monte Carlo estimator for Q(c(t);T). Among the techniques we discuss are: • Antithetic Sampling, • Strati(cid:28)ed Sampling, • Importance Sampling, • Control Variates, • Transforming the original problem. We analyze each of these techniques thoroughly from a theoretical point of view. Further, we test each technique empirically through simulation experiments on several carefully chosen boundaries. In order to asses our results we set them in relation to a previously established benchmark. We are inter- ested in the relative reduction in the mean squared error (= sum of the squared bias and variance) due to a given technique, where the computational e(cid:27)ort remains constant. As a result of this dissertation we derive some very potent techniques that yield a substantial im- provementintermsofaccuracy. Weevendiscussanapproachthatimprovestherateatwhichourbiased Monte Carlo estimator converges to the correct result. Further, we provide a detailed record of our simulation experiments. ... Thanks. I would like to thank Prof. P(cid:246)tzelberger, my supervisor, for all his time and energy he spent to support me. Especially our regular discussions of my progress were very helpful. Further, I appreciate his advise and contribu- tions, in particular those to chapters 10 and 11. I am also grateful to Prof. Geyer for his guidance throughout my studies. Finally, I want to thank my family and friends for their encouragement and patience over the last years. Contents I State of the Field 6 1 Introduction 7 2 Functions with an Explicit Formula for the BCP 10 2.1 Linear Boundaries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.2 Square Root Boundaries . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.3 Quadratic Boundaries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.4 Boundaries Obtained Through Images . . . . . . . . . . . . . . . . . . . 14 2.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.4.2 One Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.4.3 Two Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.4.4 Extension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3 Di(cid:27)erent Approaches to compute the BCP 20 3.1 General Comments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.2 Tangent Approximation and Extensions . . . . . . . . . . . . . . . . . . . 21 3.2.1 Tangent Approximation . . . . . . . . . . . . . . . . . . . . . . . 21 3.2.2 Extensions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3.3 Integral Equations: Loader an Deely (1987) . . . . . . . . . . . . . . . . 24 3.4 Integral Series: Durbin (1992) . . . . . . . . . . . . . . . . . . . . . . . . 26 3.5 Explicit Formula: Wang and P(cid:246)tzelberger (1997) . . . . . . . . . . . . . . 28 II Variance Reduction 30 4 Methods 31 4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 4.2 Bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 4.3 Monte Carlo Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.4 Optimal Resource Allocation . . . . . . . . . . . . . . . . . . . . . . . . . 40 4.4.1 Theoretical Considerations . . . . . . . . . . . . . . . . . . . . . . 40 4.4.2 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 1 4.4.3 Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.5 Computational E(cid:27)ort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.6 Comparison of Techniques . . . . . . . . . . . . . . . . . . . . . . . . . . 46 4.6.1 How We Compare Techniques . . . . . . . . . . . . . . . . . . . . 46 4.6.2 Test Functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 5 Ordinary Simulation 52 5.1 Sample Paths and Simulation . . . . . . . . . . . . . . . . . . . . . . . . 52 5.2 The Benchmark Technique . . . . . . . . . . . . . . . . . . . . . . . . . . 53 5.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 5.2.2 Simulated Conditional Transitions . . . . . . . . . . . . . . . . . . 54 5.2.3 "Classical" Transitions . . . . . . . . . . . . . . . . . . . . . . . . 55 5.2.4 Ignoring Transitions . . . . . . . . . . . . . . . . . . . . . . . . . 56 5.3 Evaluation and Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 6 Antithetic Sampling 58 6.1 An Introduction to the Technique . . . . . . . . . . . . . . . . . . . . . . 58 6.1.1 Basic Properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 6.1.2 Variance Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . 60 6.2 Evaluation and Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 7 Strati(cid:28)ed Sampling 62 7.1 An Introduction to the Technique . . . . . . . . . . . . . . . . . . . . . . 62 7.1.1 Basic Properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 7.1.2 Variance Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . 63 7.2 Strati(cid:28)cation Applied to BCP Problems . . . . . . . . . . . . . . . . . . 64 7.2.1 Foundations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 7.2.2 Brownian Bridge Construction . . . . . . . . . . . . . . . . . . . . 65 7.2.3 A First Approach . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 7.3 An Improvement of the Technique . . . . . . . . . . . . . . . . . . . . . . 69 7.4 An Alternative Algorithmic Approach . . . . . . . . . . . . . . . . . . . . 70 7.5 Evaluation and Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 8 Importance Sampling 74 8.1 An Introduction to the Technique . . . . . . . . . . . . . . . . . . . . . . 74 8.1.1 Basic Properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 8.1.2 Variance Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . 75 8.2 Change of Drift . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 8.3 Conditional One Step Survival . . . . . . . . . . . . . . . . . . . . . . . . 78 8.3.1 The Idea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 8.3.2 Theoretical Considerations . . . . . . . . . . . . . . . . . . . . . . 80 2 8.4 Conditional Survival Combined with Strati(cid:28)cation . . . . . . . . . . . . . 82 8.5 Evaluation and Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 9 Static Control Variates 87 9.1 An Introduction to the Technique . . . . . . . . . . . . . . . . . . . . . . 87 9.1.1 Basic Properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 9.1.2 Variance Reduction . . . . . . . . . . . . . . . . . . . . . . . . . . 88 9.1.3 Possible Control Variates for BCP Problems . . . . . . . . . . . . 90 9.1.4 Computational E(cid:27)ort . . . . . . . . . . . . . . . . . . . . . . . . . 92 9.2 Tangent Approximation Based Control Variates . . . . . . . . . . . . . . 92 9.2.1 Secant Approximation . . . . . . . . . . . . . . . . . . . . . . . . 92 9.2.2 Tangent Approximation . . . . . . . . . . . . . . . . . . . . . . . 93 9.2.3 Extended Tangent Approximation . . . . . . . . . . . . . . . . . . 94 9.3 Regression Based Control Variates . . . . . . . . . . . . . . . . . . . . . . 96 9.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 9.3.2 Regression (cid:22) Straight Line . . . . . . . . . . . . . . . . . . . . . 97 9.3.3 Regression (cid:22) Daniels Boundary . . . . . . . . . . . . . . . . . . . 98 9.4 Evaluation and Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 10 Adaptive Control Variates 103 10.1 An Introduction to the Technique . . . . . . . . . . . . . . . . . . . . . . 103 10.1.1 The Idea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 10.1.2 Optimal Resource Allocation and Convergence . . . . . . . . . . . 105 10.2 Adaptive Control Variates (cid:22) Enhanced . . . . . . . . . . . . . . . . . . . 109 10.2.1 Combination with Static Control Variates . . . . . . . . . . . . . 109 10.2.2 Iterated Adaptive Control Variates . . . . . . . . . . . . . . . . . 110 10.3 Evaluation and Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 11 Girsanov Transformation 113 11.1 An Introduction to the Technique . . . . . . . . . . . . . . . . . . . . . . 113 11.1.1 The Idea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 11.1.2 Measure Transformation . . . . . . . . . . . . . . . . . . . . . . . 114 11.2 Approximating L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 T 11.2.1 Theoretical Considerations . . . . . . . . . . . . . . . . . . . . . . 116 11.2.2 Order of Convergence . . . . . . . . . . . . . . . . . . . . . . . . . 117 11.2.3 Euler Scheme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 11.2.4 Milstein Scheme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 11.2.5 Romberg Extrapolation . . . . . . . . . . . . . . . . . . . . . . . 122 11.3 Evaluation and Outlook . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 12 Conclusion 126 3 III Application 132 13 Financial Application 133 13.1 Theoretical Background . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 13.2 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 14 Algorithms 138 14.1 General Comments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 14.2 The Benchmark Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . 139 14.2.1 Algorithm 1.1ct: Conditional Transitions . . . . . . . . . . . . . . 139 14.2.2 Performance of Algorithm 1.1ct . . . . . . . . . . . . . . . . . . . 140 14.2.3 Algorithm 1.0: "Classical" Transitions - The Benchmark . . . . . 141 14.2.4 Performance of Algorithm 1.0 . . . . . . . . . . . . . . . . . . . . 142 14.3 Antithetic Sampling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 14.3.1 Algorithm 1.1A . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 14.3.2 Performance of Algorithm 1.1A . . . . . . . . . . . . . . . . . . . 144 14.4 Strati(cid:28)ed Sampling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 14.4.1 Algorithm 1.1S: A First Approach . . . . . . . . . . . . . . . . . . 145 14.4.2 Performance of Algorithm 1.1S . . . . . . . . . . . . . . . . . . . 146 14.4.3 Algorithm 1.2S: An Improvement of the Technique . . . . . . . . 147 14.4.4 Accuracy and Number of Strata . . . . . . . . . . . . . . . . . . . 148 14.4.5 Performance of Algorithm 1.2S . . . . . . . . . . . . . . . . . . . 149 14.4.6 Algorithm 1.3S: An Alternative Algorithmic Approach . . . . . . 150 14.5 Importance Sampling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 14.5.1 Algorithm 1.1I: Change of Drift . . . . . . . . . . . . . . . . . . . 151 14.5.2 Performance of Algorithm 1.1I . . . . . . . . . . . . . . . . . . . . 152 14.5.3 Algorithm 1.2I: Conditional One Step Survival . . . . . . . . . . . 154 14.5.4 Performance of Algorithm 1.2I . . . . . . . . . . . . . . . . . . . . 155 14.5.5 Algorithm 1.3I: Conditional Survival Combined with Strati(cid:28)cation 156 14.5.6 Performance of Algorithm 1.3I . . . . . . . . . . . . . . . . . . . . 157 14.6 Static Control Variates . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 14.6.1 Expectation of Control Terms . . . . . . . . . . . . . . . . . . . . 158 14.6.2 Algorithm 1.1C: Secant Approximation . . . . . . . . . . . . . . . 159 14.6.3 Performance of Algorithm 1.1C . . . . . . . . . . . . . . . . . . . 160 14.6.4 Algorithm 1.2C: Tangent Approximation . . . . . . . . . . . . . . 161 14.6.5 Performance of Algorithm 1.2C . . . . . . . . . . . . . . . . . . . 162 14.6.6 Algorithm 1.3C: Extended Tangent Approximation . . . . . . . . 163 14.6.7 Performance of Algorithm 1.3C . . . . . . . . . . . . . . . . . . . 164 14.6.8 Algorithm 1.4C: Regression (cid:22) Straight Line . . . . . . . . . . . . 165 14.6.9 Performance of Algorithm 1.4C . . . . . . . . . . . . . . . . . . . 166 4
Description: