Kapitel 9 ARMA Modelle JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–1/65 Lernziele Stationäreundnicht-stationäreProzesse: Whitenoiseundrandomwalk ARMA:AutoregressivemovingaverageModelle Modellbildung SchätzungvonARMAModellen ModellwahlundModellüberprüfung Prognose IntegrierteARMAModelle:ARIMA JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–2/65 Schwach stationäre Prozesse KovarianzoderschwachstationäreProzesse y , t= ..., 2, 1,0,1,2,... t { } − − habendieEigenschaft: mittelwertstationär: E(y )= E(y ) = µ t t s − kovarianzstationär: V(y ) =E(y µ)2 = V(y )= σ2 t t− t−s y Cov(y ,y ) =E(y µ)(y µ) =Cov(y ,y ) = γ t t s t t s t j t s j s − − − − − − − µ,σ2 undγ sindkonstantundunabhängigvont. y s JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–3/65 Autokorrelationsfunktion (ACF) DieAutokorrelationzwischeny undy istdefiniertals t t s − γ ρ = s =Corr(y,y ) s t t s γ0 − γ =Cov(y ,y ),γ = σ2. s t t s 0 y − ImSpeziellengilt: ρ =1 und 1 ρ 1. 0 s − ≤ ≤ Fasstmandieρ ,s 0,zusammen,erhältmandie s ≥ Autokorrelationsfunktion,ACF: 1, ρ , ρ , ρ , ... 1 2 3 JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–4/65 Beispiel Whitenoise,WN EinProzess y ,y = ǫ,mit t t t { } E(ǫ ) =0, V(ǫ ) = σ2, ρ =1, ρ = ρ = ρ = ... =0 t t ǫ 0 1 2 3 heißtwhitenoise,WN,oderWeißesRauschen. EinwhitenoiseProzessist(kovarianz-)stationär. JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–5/65 Wold Darstellung JederschwachstationäreProzess y lässtsichalsunendliche t { } gewichteteSummeeinesvergangenenwhitenoiseProzesses darstellen: ∞ y µ = ∑ψ ǫ t j t j − − j=0 Dieψ heißenImpulse-response-Koeffizienten;dieFunktion j ψ, j 0 ,Transferfunktion,Impuls-Antwort-Funktion. j { ≥ } SieerfülltdieBedingung ∞ ∑ψ2 < ∞ j j=0 D.h.,dieψ sindquadratischsummierbar. j JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–6/65 Wold Darstellung /(2) AusE(ǫ ) =0folgt t E(y ) = µ t AusV(ǫ ) = σ2 undderquadratischenSummierbarkeitderψ t ǫ j folgt V(y ) = ∑ψ2σ2 = σ2∑ψ2 t j ǫ ǫ j dadieǫ unkorreliertsind. t JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–7/65 Lagoperator DerLagoperatorListdefiniertals Ly =y t t 1 − DurchMehrfachesanwendendesLagoperatorserhältman L2y =Ly = y t t 1 t 2 − − L3y =L2y =Ly =y , t t 1 t 2 t 3 − − − ... Lsy =y t t s − Beispiel: (1 L)y =y y , t t t 1 (1−α L α L−2 α− L3)y =y α y α y α y . 1 2 3 t t 1 t 1 2 t 2 3 t 3 − − − − − − − − − (1 α L α L2 α L3)heißtauchLagpolynomderOrdnung3. 1 2 3 − − − JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–8/65 Wold Darstellung mittels Lagoperator DieWoldDarstellungkannauchmitHilfeeinesunendlichen LagpolynomsΨ(L)angegebenwerden: ∞ ∞ ∞ y µ = ∑ψ ǫ = ∑ψ (Ljǫ ) = ∑(ψ Lj)ǫ = Ψ(L)ǫ t j t j j t j t t − − j=0 j=0 j=0 wobei Ψ(L) = ∑∞ ψ Lj ist. j=0 j JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–9/65 Random Walk (RW) EinProzess y mit y =y +ǫ t t t 1 t { } − heißtrandomwalk,RW,(ohneDrift). EinProzess y mit t { } y = c+y +ǫ t t 1 t − heißtrandomwalkmitDrift.cistderDriftparameter. DerProzessistinrekursiverDarstellunggegeben. ExpliziteDarstellungdesRWs: t t y =y +∑ǫ bzw. y = y +ct+∑ǫ t 0 j t 0 j j=1 j=1 Einrandomwalkistnichtstationär. JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–10/65 Bedingter und unbedingter Erwartungswert DieInformationsmengeI ist t I = y, ǫ, y , ǫ ,...,y , ǫ , y t t t t 1 t 1 1 1 0 { − − } DerbedingteErwartungswerteinesrandomwalksy bezüglichder t InformationsmengenI ,I undI ist t 1 t s 0 − − E(y I ) = c+y t t 1 t 1 | − − E(y I ) = sc+y t t s t s | − − E(y I ) = tc+y t 0 0 | DieAbhängigkeitdesbedingtenErwartungswertesvomAnfangswert verschwindetnichtmits ∞. → DerunbedingteErwartungswertE(y )existiertnicht. t JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–11/65 Bedingte und unbedingte Varianz DiebedingteVarianzeinesrandomwalksy ist t V(y I ) = σ2 t| t−1 ǫ V(y I ) = sσ2 t| t−s ǫ V(y I ) = tσ2 t| 0 ǫ DiebedingteVarianzistnichtkonstantundnimmtausgehendvon t=0mittzu. DieunbedingteVarianzexistiertnicht. DieKovarianzCov(y ,y )isttσ2. t t+s ǫ JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–12/65 Random Walk und dynamischer Multiplikator DerrandomwalkProzesshatdieEigenschaft,dassvergangene Schocksnichtvergessenwerden.Jeder(vergangene)Schock,ǫ , t s − gehtzurGänzeindasaktuelleNiveau,y,ein.KeinSchockwird t vergessen. t ∂y y =y +ct+∑ǫ t =1 t 0 j ⇒ ∂ǫ j=1 t−s MansagtauchdiePersistenzeinesSchocksistEins. MitdiesemModellkönnenirreversibleökonomischeEntscheidungen beschriebenwerden. JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–13/65 ARMA EinautoregressivermovingaverageProzessderOrdnung(p,q), ARMA(p,q),isteinschwachstationärerProzessmitdem Bildungsgesetz α (L)(y µ) = β (L)ǫ p t q t − wobei α (L) = 1 α L ... α Lp p 1 p − − − β (L) = 1 β L ... β Lq q 1 q − − − α (L) ... AR-PolynomderOrdnungp p β (L)... MA-PolynomderOrdnungq q ǫ ... whitenoise. t JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–14/65 ARMA /(2) Beispiele: ARMA(0,0),µ= 0: y = ǫ whitenoise t t ARMA(0,0),µ = 0: y = µ+ǫ t t 6 AR(1): (1 α L)(y µ) = ǫ 1 t t − − MA(1): (y µ) = (1 β L)ǫ t 1 t − − ARMA(1,1): (1 α L)(y µ) = (1 β L)ǫ 1 t 1 t − − − ARMA(1,2): (1 α L)(y µ) = (1 β L β L2)ǫ 1 t 1 2 t − − − − AR(12): (1 α L ... α L12)(y µ) = ǫ 1 12 t t − − − − JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–15/65 Vergleich ARMA und Wold Darstellung ARMAModellelieferneineApproximationderΨ(L)-Polynomsaus derWoldDarstellungmittelseinerrationalenFunktion. DurchDivision(sofernzulässig)erhältmanaus α (L)(y µ) = β (L)ǫ p t q t − β(L) y µ= ǫ = Ψ(L)ǫ t t t − α(L) Beispiel: ∞ 1 ARMA(1,0): y µ= ǫ = ∑αj ǫ = Ψ(L)ǫ t− 1−α1L t j=0 1 t−j t 1 β L ARMA(1,1): y µ= − 1 ǫ = Ψ(L)ǫ t t t − 1 α L 1 − MA(∞): yt µ= (1 β1L β2L2 ...)ǫt = β∞(L)ǫt = Ψ(L)ǫt − − − − JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–16/65 Principle of Parsimony MittelsARMA-Modellenkönnenalle(schwach-)stationärenProzesse dargestelltwerden,soferndieOrdnungderPolynomegroßgenug gewähltwird: p ∞oderq ∞. → → InderRegelmussmanannehmen,dassderzugrundeliegende Prozesssehrkompliziertist,daseigentlicheinMA(∞)zur Modellierungnotwendigwäre. BeiderModellbildungwirdderzugrundeliegendenProzessdurch einsparsamparametrisiertesARMA-Modell(ARMA-Modellmit niedrigerOrdnung)approximiert:principleofparsimony. DasProblembestehtdarinein„gutes“undzugleichsparsam parametrisiertesModellzufinden. JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–17/65 AR(1) Prozess DasModellfüreinenAR(1)Prozesslautet: (1 αL)(y µ) = ǫ mit α <1 t t − − | | oder y αy = c+ǫ mitc= (1 α)µ t t 1 t − − − Fürµ=0erhaltenwir y αy = ǫ. t t 1 t − − ExpliziteDarstellung: t τ 1 t yt = αty0+∑αt−jǫj bzw. yt = αty0+c ∑− αj+∑αt−jǫj j=1 j=1 j=1 JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–18/65 Erwartungswert und Varianz eines AR(1) AusderexplizitenDarstellungerhaltenwirdirektdenbedingten ErwartungswertunddiebedingteVarianzfürµ=0: t E(yt|y0) = αty0 und V(yt|y0)= σǫ2∑α2(t−j) j=1 DieAbhängigkeitvomAnfangswertverschwindetmit α <1,wenn | | wirdenProzessimZeitpunkt ∞startenlassen: − E(yt y0)= αty0 E(yt y ∞) =E(yt)= 0 | → | − t σ2 V(yt|y0) = σǫ2∑α2(t−j) → V(yt|y−∞) =V(yt)= 1 ǫα2 j=1 − DerunbedingteErwartungswertistkonstantundgleichNull: E(y ) =0. t JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–19/65 Stationarität eines AR(1) DerAR(1)Prozessistfür α <1 | | einstationärerProzess. EinProzess,gegebendurchdieDifferenzengleichung y αy =y αLy =0 t t 1 t t − − − iststationär,wennereinenstabilenFixpunkthat. DasistgenaudannderFall,wenndieWurzelndes charakteristischePolynoms 1 αz=0 − außerhalbdesEinheitskreisesliegen.(Hier: z = 1/α >1) | | | | JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–20/65 Autokorrelationsfunktion eines AR(1) DieACFfälltgeometrisch(exponentiell): γ Cov(y,y ) ρs = s = t t−s = αs γ V(y ) 0 t EinAR(1)ProzessbeschreibteinVergessenvergangener Schocks.EinSchock,dersPeriodenzurückliegt,wirdmitψ = αs s gewichtet,dieACFfälltdahermitαs. AllgemeingiltfürAR(p)-Prozesse,dassdieACF(betragsmäßig) geometrischfällt.SiemussabernichtmonotonfallenwiebeimAR(1). VarianzundACFsindvonµunabhängig. JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–21/65 Prognose eines AR(1) Dieτ-SchrittPrognoseistderbedingteErwartungswert,E(y y ). t+τ t | DieVarianzdesPrognosefehlersderτ-SchrittPrognoseist V(y y ) =E [y E(y y )]2 y t+τ t t+τ t+τ t t | − | | (cid:16) (cid:17) AusderDefinitioneinerAR(1)erhaltenwiry =c+αy +ǫ mit t+1 t t+1 c= µ(1 α). − τ = 1(1-SchrittPrognose): E(y y )= c+αy, V(y y ) = σ2 t+1| t t t+1| t ǫ τ = 2(2-SchrittPrognose): E(y y ) =c(1+α)+α2y, V(y y ) = σ2(1+α2) t+2| t t t+2| t ǫ JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–22/65 Prognose eines AR(1) Allgemein(τ-SchrittPrognose): E(yt+τ|yt) =c ∑jτ=−11αj+ατyt V(y y )= σ2 ∑τ α2(τ j) t+τ| t ǫ j=1 − DiePrognosekonvergiertmitτ ∞gegendasarithmetische → Mittel. DiePrognosevarianzkonvergiertmitτ ∞gegendie → unbedingteVarianz. Jegrößer α ist,destolangsamererfolgtdieKonvergenz. | | JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–23/65 MA(1) Prozess DasModellfüreinenMA(1)lautet y µ= ǫ βǫ = (1 βL)ǫ t t t 1 t − − − − bzw. y = µ+ǫ βǫ = µ+(1 βL)ǫ t t t 1 t − − − JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–24/65 Erwartungswert eines MA(1) DerbedingteErwartungswertE(y y )ergibtsichals: t t 1 | − E(y y )=E(µ+ǫ βǫ µ+ǫ βǫ ) t t 1 t t 1 t 1 t 2 | − − − | − − − =E(ǫ βǫ ǫ ,ǫ ) t t 1 t 1 t 2 − − | − − = µ+βǫ t 1 − E(y y )=E(µ+ǫ βǫ µ+ǫ βǫ ) t t 2 t t 1 t 2 t 3 | − − − | − − − =E(µ+ǫ βǫ ǫ ,ǫ ) t t 1 t 2 t 3 − − | − − = µ E(y y )= µ fürs>1 t t s | − DiebedingtenErwartungswertsE(y y )fürs>1sindgleichdem t t s | − unbedingtenErwartungswert: E(y y ) = µ=E(y ) (fürs>1) t t s t | − DerProzesshateinGedächtnisvongenaueinerPeriode. JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–25/65 Varianz eines MA(1) FürdiebedingtenVarianzenerhaltenwir V(y y ) = σ2 t| t−1 ǫ V(y y ) = σ2(1+β2) t| t−2 ǫ V(y y )= σ2(1+β2) fürs>1 t| t−s ǫ dadieKovarianzenderǫ Nullsind. t DiebedingtenVarianzensindfürs> 1gleichderunbedingten Varianz: V(y y ) = σ2(1+β2) =V(y ) (fürs>1) t| t−s ǫ t DieVarianzvony existiertimmer,unabhängigdavon,welchenWert t βannimmt. JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–26/65 Autokovarianz eines MA(1) DieAutokovarianzenhabenebenfallseineeinfacheStruktur. Cov(y,y )=Cov(ǫ βǫ ,ǫ βǫ ) t t 1 t t 1 t 1 t 2 − − − − − − = βCov(ǫ ,ǫ ) t 1 t 1 − − − = βV(ǫ ) t 1 − − = βσ2 − ǫ Cov(y,y )=Cov(ǫ βǫ ,ǫ βǫ ) t t 2 t t 1 t 2 t 3 − − − − − − =0 Cov(y,y )=0 fürs>1 t t s − JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–27/65 Autokorrelationsfunktion eines MA(1) FürdieAutokorrelationsfunktionerhaltenwir Corr(yt,yt−1)= CovV(y(yt,ty)t−1) = (1−+ββ2σ)ǫ2σǫ2 = −1+ββ2 Corr(y ,y )= 0 fürs>1 t t s − DieACFbrichtnachdemLag1ab. Fürs 2zeigtdieACFdasMusterderACFeineswhitenoise. ≥ AllgemeinbrichtdieACFeinesMA(q)ProzessesnachdemLag qab. JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–28/65 Invertierbarkeitsbedingung MA(1)ProzessemitParameterβundParameter(1/β) besitzendie selbeACF,undhabensomitdieselbenstochastischen Eigenschaften.DaherbeschränktmansichderEindeutigkeitwegen aufdenBereich β <1. | | DieseBedingungheißtInvertierbarkeitsbedingung. Beispiel: DerMA(1)Prozess y mitE(y ) =3,V(y ) =2.50undρ =0.40 t t t 1 { } lässtsichauf2Artendarstellen: y 3= u 0.5u mit u N(0,2) (iid) t t t 1 t − − − ∼ und 1 y 3=v v mit v N(0,0.5) (iid) t t t 1 t − − 0.5 − ∼ JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–29/65 Prognose eines MA(1) Dieτ-SchrittPrognoseistderbedingteErwartungswertE(y y ). t+τ t | τ = 1(1-SchrittPrognose)fürMA(1): E(y y )= µ βǫ , V(y y ) = σ2 t+1| t − t t+1| t ǫ τ-SchrittPrognose(τ >1): E(y y )= µ, V(y y ) = (1+β2)σ2 t+τ| t t+τ| t ǫ EinMA(1)liefertnurfürdie1-Schritt-Prognoseeinekleinere PrognosevarianzalsdasarithmetischeMittel. EinMA(q)liefertnurbiszurq-Schritt-Prognoseeinekleinere PrognosevarianzalsdasarithmetischeMittel. JosefLeydold(cid:13)c 2006 MathematischeMethoden –IX–ARMAModelle–30/65
Description: