ebook img

Estatística Multivariada Aplicada PDF

113 Pages·2008·0.61 MB·Portuguese
by  
Save to my drive
Quick download
Download
Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.

Preview Estatística Multivariada Aplicada

Faculdade de Economia da Universidade de Coimbra Estatística Multivariada Aplicada Pedro Lopes Ferreira 2000 ii Sumário 1 Introdução à estatística multivariada ----------------------------------------------- 1 1.1 A organização dos dados --------------------------------------------------- 1 1.2 Estatísticas descritivas ------------------------------------------------------ 2 1.3 Distâncias ----------------------------------------------------------------------- 6 2 Álgebra matricial e vectores aleatórios -------------------------------------------- 13 2.1 Alguns conceitos básicos --------------------------------------------------- 13 2.2 Matrizes definidas positivas ------------------------------------------------ 17 2.3 Médias e covariâncias de combinações lineares --------------------- 21 3 Geometria amostral e amostragem aleatória ------------------------------------ 23 3.1 Geometria da amostra ------------------------------------------------------- 23 3.2 Amostragem aleatória ------------------------------------------------------- 28 3.3 Variância generalizada ------------------------------------------------------ 29 4 Distribuição normal multivariada ---------------------------------------------------- 37 4.1 A densidade normal multivariada ----------------------------------------- 37 4.2 Propriedades da distribuição normal ------------------------------------- 42 4.3 A forma amostral da distribuição normal multivariada --------------- 44 — 4.4 Distribuição amostral de X e S ------------------------------------------ 45 5 Inferência acerca do vector média -------------------------------------------------- 47 5.1 T2 de Hotelling ---------------------------------------------------------------- 47 5.2 Regiões de confiança -------------------------------------------------------- 50 5.3 Inferências para grandes amostras -------------------------------------- 56 6 Comparação entre duas médias multivariadas --------------------------------- 59 6.1 Comparações emparelhadas ---------------------------------------------- 59 6.2 Comparações em desenhos de medidas repetidas ------------------ 65 6.3 Comparações entre duas populações ----------------------------------- 70 iii 7 Análise de componentes principais e análise factorial --------------------- 75 7.1 Introdução ---------------------------------------------------------------------- 75 7.2 Componentes principais ---------------------------------------------------- 78 7.3 Análise factorial --------------------------------------------------------------- 86 8 Análise de agrupamentos (clusters) ----------------------------------------------- 99 8.1 Introdução ---------------------------------------------------------------------- 99 8.2 Medidas de semelhança ---------------------------------------------------- 99 8.2.1 Medidas de distância ----------------------------------------------- 100 8.2.2 Medidas de associação -------------------------------------------- 102 8.3 Critérios de agregação e desagregação -------------------------------- 105 8.3.1 Critério do vizinho mais próximo (single linkage) ----------- 106 8.3.2 Critério do vizinho mais afastado (complete linkage) ------ 106 8.3.3 Critério da média do grupo (average linkage) ---------------- 107 8.3.4 Critério do centróide ------------------------------------------------ 107 8.3.5 Critério de Ward ----------------------------------------------------- 107 Referências bibliográficas ------------------------------------------------------------- 109 iv 1 Introdução à análise multivariada 1.1 A organização dos dados Sendo este um curso de estatística multivariada, iremos analisar medições feitas em várias variáveis ou características. Estas medições (dados) são normalmente apresentadas quer graficamente, quer sob a forma matricial. Assim, se considerarmos n medições em p variáveis, xij representará a medição da variável j no item i. A sua representação matricial será ⎡x x … x … x ⎤ 11 12 1j 1p ⎢ ⎥ x x … x … x ⎢ 21 22 2j 2p⎥ ⎢ . . … . … . ⎥ X = ⎢ ⎥ x x … x … x ⎢ i1 i2 ij ip ⎥ ⎢ . . … . … . ⎥ ⎢ ⎥ ⎢⎣xn1 xn2 … xnj … xnp⎥⎦ Esta matriz X contém os dados de todas as observações em todas as variáveis. Exemplo 1.1: Pretende-se estudar as vendas dos livros de uma livraria e, para isso, recolheu-se uma amostra de 4 recibos, indicando cada um deles o número de livros vendidos e o total gasto (em centenas de escudos). Numa forma tabular temos os seguintes dados: Variável Nome 1 Total 42 52 48 58 2 No. livros 4 5 4 3 Representando numa forma matricial obtemos a matriz X com duas linhas (variáveis) e quatro colunas (itens): ' ⎡42 52 48 58⎤ X = ⎢ ⎥ ⎣4 5 4 3⎦ o 1.2 Estatísticas descritivas Se considerarmos x1j,x2j,…,xij,…,xnj como representando as n medições feitas na variável j (coluna j da matriz X), podemos denominar por x a média amostral j da variável j 1 n x = ∑x j = 1,2,…,p j n ij i=1 Do mesmo modo, a medida de dispersão variância amostral da variável i é dada por 2 1 n si = sii = n∑(xij −xj)2 i = 1,2,…,p i=1 A raiz quadrada da variância amostral, s é denominada desvio padrão amostral. jj Podemos também estar interessados em determinar o grau de associação linear entre duas variáveis j e k. Isto consegue-se através da covariância amostral representada pela média dos produtos dos desvios em relação às respectivas médias 1 n sik = ski = n∑(xij −xj) (xik −xk) i = 1,2,…,p ; k = 1,2,…,p i=1 2 Se valores altos de uma variável foram observados conjuntamente com valores altos de outra variável, e valores pequenos também ocorrerem conjuntamente, sjk será positiva. Se valores altos de uma variável ocorrerem com valores pequenos de outra variável, sjk será negativa. Caso não exista associação entre os valores de ambas as varáveis, sjk será aproximadamente nula. Finalmente, consideremos o coeficiente de correlação amostral de Pearson, uma medida de associação linear entre duas variáveis, independente das unidades de medida e com valores entre -1 e +1. n ∑(xij −xj) (xik −xk) s rjk = rkj = jk = i=1 s s n n jj kk ∑(x −x )2 ∑(x −x )2 ij i ik k i=1 i=1 para i = 1,2,…,p e k = 1,2,…,p. Esta última medida constitui, como facilmente se pode observar, uma versão estandardizada da covariância amostral. De notar que, se substituirmos os valores originais xij e xik pelos correspondentes valores estandardizados (xij - xj) / sjj e (xik - xk) / skk , o coeficiente de correlação amostral rjk pode ser visto como a covariância amostral. Após a estandardização, ambas as variáveis podem ser comparadas, pois passam a estar nas mesmas unidades. Voltando, de novo, à apresentação matricial, baseando-nos na matriz X com n medições (linhas) em p variáveis (colunas), as médias amostrais são representadas por 3 ⎡x1⎤ ⎢ ⎥ x= ⎢x2⎥ ⎢…⎥ ⎢ ⎥ ⎣xp⎦ as variâncias e covariâncias amostrais por ⎡s s … s ⎤ 11 12 1p ⎢ ⎥ s s … s Sn = ⎢ 21 22 2p⎥ ⎢ . . … . ⎥ ⎢ ⎥ ⎢⎣sp1 sp2 … spp⎥⎦ e as correlações amostrais por ⎡ 1 r … r ⎤ 12 1p ⎢ ⎥ r 1 … r R = ⎢ 21 2p⎥ ⎢ . . … . ⎥ ⎢ ⎥ ⎢⎣rp1 rp2 … 1 ⎥⎦ Reparar que as matrizes Sn e R são matrizes simétricas de ordem p. Exemplo 1.1 (cont): Pegando de novo na matriz ' ⎡42 52 48 58⎤ X’ = ⎢ ⎥ ⎣4 5 4 3⎦ _ podemos determinar o vector x e as matrizes Sn e R. Assim, _ 1 4 1 x1 = ∑xi1= (42+52+48+58)= 50 4 4 i=1 4 _ 1 4 1 x2 = ∑xi2 = (4+5+4+3)= 4 4 4 i=1 _ ⎡x1⎤ ⎡50⎤ e então, x = = ⎢ ⎥ ⎢ ⎥ ⎣x2⎦ ⎣4⎦ Do mesmo modo, 1 4 1[ ] s11 = 4∑(xi1−x1)2 = 4 (42−50)2 +(52−50)2 +(48−50)2 +(58−50)2 = 34 i=1 1 4 1[ ] s22 = ∑(xi2 −x2)2 = (4−4)2 +(5−4)2 +(4−4)2 +(3−4)2 = .5 4 4 i=1 1 4 s12 = 4∑(xi1−x1) (xi2 −x2)= i=1 1 = [(42−50)(4−4)+(52−50)(5−4)+(48−50)(4−4)+(58−50)(3−4)]= -1.5 4 ⎡ 34 −1.5⎤ Sn = ⎢ ⎥ ⎣−1.5 .5 ⎦ Finalmente, a correlação amostral é dada por s −1.5 r12 = r21 = 12 = = -.36 s s 34 .5 11 22 ⎡ 1 −.36⎤ R = ⎢ ⎥ ⎣−.36 1 ⎦ o 5 1.3 Distâncias A maioria das técnicas multivariadas são baseadas no conceito simples de distância. Se considerarmos um plano e um ponto P = (x1,x2) nesse plano, a distância d(O,P) entre a origem e esse ponto é dada por P x2 d(O,P) = x12 +x22 Figura 1.1 – Teorema de Pitágoras O x 1 Num caso mais geral, se os pontos tiverem p coordenadas, então P = (x1,x2, …,xp), O=(0,0,…,0) e d(O,P) = x12 +x22 +…+x2p Desta última equação, e elevando ao quadrado ambos os termos, podemos dizer que todos os pontos (x1,x2, …,xp) que estejam a uma mesma distância quadrada da origem, satisfazem a equação 2 d (O,P) = x2+ x2+ … + x2 1 2 p Se se tratar de um espaço onde p=2 , esta equação não é mais do que a equação de uma circunferência de centro (0,0) e raio d(0,P). A distância em linha recta entre dois pontos quaisquer P e Q com coordenadas P=(x1,x2, …,xp) e Q=(y1,y2, …,yp) é dada por d(P,Q) = (x −y )2+(x −y )2+…+(x −y )2 1 1 2 2 p p 6

Description:
Faculdade de Economia da Universidade de Coimbra. Estatística. Multivariada. Aplicada. Pedro Lopes Ferreira. 2000
See more

The list of books you might like

Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.