ebook img

Métodos de Remuestreo Tema 4. Remuestreos en Modelos Lineales y Series Temporales. PDF

80 Pages·2017·0.88 MB·English
by  
Save to my drive
Quick download
Download
Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.

Preview Métodos de Remuestreo Tema 4. Remuestreos en Modelos Lineales y Series Temporales.

Me´todos de Remuestreo Tema 4. Remuestreos en Modelos Lineales y Series Temporales. basado en B. Efron, R. Tibshirani (1993). An Introduction to the bootstrap. O. Kirchkamp (2017). Resampling methods. Curso 2018/19 1/80 Introducci´on a la Regresio´n Lineal ◮ En el modelo cl´asico de regresi´on lineal se tiene un conjunto de n parejas de observaciones x1, x2, . . . , xn tal que cada xi es un par xi = (ci , yi ). ◮ Cada ci es un vector de dimensio´n p tal que ci = (ci1, ci2, . . . , cip) se suele denominar como vector de covariables o predictores. ◮ yi es un nu´mero real denominado respuesta. ◮ Se define la esperanza condicional de la respuesta yi dado el predictor ci como µi = E (yi |ci ) para i = 1, 2, . . . , n. 2/80 Introducci´on a la Regresio´n Lineal ◮ La suposici´on b´asica de los modelos lineales es que µi es una combinacio´n lineal de los componentes del vector ci p ∑ µi = ciβ = cijβj j=1 ◮ El vector de par´ametros β = (β1, . . . , βp)′ es desconocido de modo que se trata de estimarlo mediante los datos observados x = (x1, x2, . . . , xn). ◮ El t´ermino lineal se refiere a la forma lineal de la esperanza, no a que las t´erminos de ci puedan estar elevados a un exponente dado. ◮ La estructura habitual es (para i = 1, 2, . . . , n) yi = ciβ + εi 3/80 Introducci´on a la Regresio´n Lineal ◮ Los t´erminos de error εi se asume que proceden de una distribucio´n desconocida F que tiene esperanza igual a 0: F → (ε1, ε2, . . . , εn) tal que EF (εi ) = 0. ◮ Esto implica que E (yi |ci ) = E (ciβ + εi |ci ) = E (ciβ|ci ) + E (εi |ci ) = ciβ ◮ Ya que al ser εi independientes de ci entonces E (εi |ci ) = E (εi ) = 0 4/80 Introducci´on a la Regresio´n Lineal ◮ Para estimar los par´ametros de la regresio´n β a partir de los datos originales, se toma un valor inicial, digamos b de β, n ∑ 2 ECM(b) = (yi − cib) i=1 ◮ De modo que el estimador de m´ınimos cuadrados de β es el valor β̂ de b que minimiza el error cuadr´atico medio ECM(β̂) = m´ın (ECM(b)) . b 5/80 Introducci´on a la Regresio´n Lineal ◮ Se define la llamada matriz de disen˜o como C, de orden n × p, tal ′ que la fila i−´esima es ci , y se denomina y al vector (y1, y2, . . . , yn) ◮ Entonces el estimador de m´ınimos cuadrados es la solucio´n de las ecuaciones normales C′Cβ̂ = C′y ◮ es decir β̂ = (C′C)−1 C′y 6/80 Introducci´on a la Regresio´n Lineal con R ◮ En R hay muchos paquetes estad´ısticos que permiten trabajar con m´etodos de regresi´on. ◮ La orden b´asica en R es lm. ◮ Ver, por ejemplo, como tutoriales: Curso completo sobre m´etodos de regresio´n con R: http://www.et.bs.ehu.es/∼etptupaf/nuevo/ficheros/estad3/ nreg1.pdf Tutorial corto sobre m´etodos de regresio´n con R: http://www.montefiore.ulg.ac.be/∼kvansteen/GBIO0009 -1/ ac20092010/Class8/Using %20R %20for %20linear %20regression.pdf 7/80 Introducci´on a la Regresio´n Lineal con R Supongamos un ejemplo muy simple sobre dos vectores de datos: conc = c(10 ,20 ,30 ,40 ,50) signal = c(4,22,44 ,60,82) lm.r = lm(signal ∼ conc) summary(lm.r) plot(conc , signal) abline(lm.r) 8/80 Introducci´on a la Regresio´n Lineal con R Call: lm(formula = signal ∼ conc) Residuals: 1 2 3 4 5 0.4 -1.0 1.6 -1.8 0.8 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) -15.80000 1.66933 -9.465 0.0025 ** conc 1.94000 0.05033 38.544 3.84e -05 *** --- Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1 Residual standard error: 1.592 on 3 degrees of freedom Multiple R-squared: 0.998 , Adjusted R-squared: 0.9973 F-statistic: 1486 on 1 and 3 DF, p-value: 3.842e -05 9/80 10/80

See more

The list of books you might like

Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.