Inflacao

Disponível somente no TrabalhosFeitos
  • Páginas : 5 (1045 palavras )
  • Download(s) : 0
  • Publicado : 9 de outubro de 2012
Ler documento completo
Amostra do texto
Multicolinearidade

Conceitos e conseqüências

Multicolinearidade refere-se à correlação entre duas variáveis explicativas ou entre uma delas e as demais, incluídas na equação de um modelo. Isso implica que a multicolinearidade ocorre quando duas variáveis X1 e X2 medem aproximadamente a mesma coisa, ou seja, a correlação entre elas é quase perfeita.

Quando tal correlação é elevada, aeficiência dos parâmetros estimados é significativamente afetada, tornando-os instáveis. A conseqüência disso é o aumento da variância da estimativa e do erro-padrão. Assim, o valor da estatística t reduz-se e, as vezes, a hipótese de efeito nulo pode ser aceita, quando deveria ser rejeitada. Ademais, os parâmetros estimados são imprecisos, porque apresentam elevada sensibilidade a pequenas alteraçõesdos dados básicos. Desta forma, torna-se difícil isolar a influência relativa dos Xi, ficando a interpretação dos resultados prejudicada.

Casos de multicolinearidade

Existem três casos:
1. Ausência de multicolinearidade – ocorre tal caso quando a correlação entre as variáveis explicativas é nula, isto é, as variáveis são ortogonais entre si. Essa é a situação ideal.
2.Multicolinearidade perfeita – nesse caso, a corrrelação entre as variáveis explicativas é igual a 1 ou a -1. O cálculo das estimativas dos parâmetros é, matematicamente, impossível nessas circunstâncias, porque o determinante da matriz X’X é nulo.
3. Multicolinearidade imperfeita – trata-se da situação em que a correlação entre as variáveis explicativas situa-se entre 0 e 1 ou entre -1 e 0. È o caso maiscomum.

Diagnóstico da multicolinearidade

O problema da multicolinearidade pode ser diagnosticado de várias formas:
a) Ocorram não-significâncias de variáveis explicativas com sinais incorretos para algumas delas, ainda que R² seja elevado;
b) Aumente o grau de correlação simples entre as variáveis explicativas;
c) Os parâmetros estimados se tornem instáveis, quando o tamanho daamostra se altera ou alguma variável é omitida ou adicionada ao modelo;
d) Diminua o determinante da matriz de coeficiente de correlação entre as variáveis explicativas.

O diagnóstico mais comum dos efeitos danosos do problema da multicolinearidade é obtido ao se constatar que nenhuma das variáveis explicativas é estatisticamente significativa e algumas delas apresentam parâmetros estimadoscom sinal incorreto, ainda que o coeficiente de determinação (R²) seja elevado (R² > 0,7).

Apresentamos, a seguir, a definição das estatísticas e a forma de realizar os testes de multicolinearidade:
a) Teste para detectar a extensão da multicolinearidade

A estatística para a realização do teste de Farrar e Glauber é definida pela seguinte fórmula:

[pic] (1)

Onde n = tamanho daamostra, k = número de variáveis explicativas, Ln = logaritmo neperiano, det = determinante e rij = coeficiente de correlação simples entre Xi e Xj, isto é:


[pic] (2)


A estatística X² tem distribuição qui-quadrado com [k(k-1)]/2 graus de liberdade.

b) Teste de localização e do padrão da multicolinearidade

O teste de localização visa identificar quais variáveis são mais afetadaspela multicolinearidade. Esse teste pode ser realizado com o uso da estatística F, definida como segue:

[pic] (3)

Onde os índices denotam as variáveis Xi (i = 1, 2, ..., k) e R²i.1, 2, ..., k indicam o coeficiente de determinação correspondente à regressão de Xi em relação às demais variáveis explicativas.

A hipótese a ser testada é formulada da seguinte forma:

H0: R²i.1, 2, ..., k = 0(A variável Xi não é afetada pela multicolinearidade)

H1: R²i.1, 2, ..., k # 0 (A variável Xi é afetada pela multicolinearidade)

O valor observado de F é comparado com o valor crítico Fc, com k – 1 e n – k graus de liberdade.

Se F > Fc os valores de X são multicolineares com dado nível de probabilidade de erro, a variável X é significativamente afetada pela multicolinearidade. Caso F ≤...
tracking img