O teorema de Gauss-Markov

OLS, BLUE and the Gauss Markov Theorem – UW Economics Society 

    Nos artigos anteriores, deduzimos a formula dos estimadores de Mínimos Quadrados Ordinários e discutimos suas propriedades distributivas. Como vimos, os estimadores tem propriedades ideais que devem atender para serem os "melhores" estimadores possíveis. Essas propriedades são unificadas no teorema de Gauss-Markov, também conhecido como Teorema da Variância Mínima.

    A ideia do Teorema de Gauss-Markov é que existe um estimador ótimo para os parâmetros betas da Função de Regressão Populacional, e essa categoria de estimadores ótimos são os estimadores de Mínimos Quadrados Ordinários (MQO). A essência desse teorema consiste em provar que os estimadores de MQO satisfaz as condições para ser esse estimador ótimo.

    Esse estimador ótimo tem que satisfazer uma série de condições que lhe dão o apelido de BLUE (Best Linear Unibiased Estimator), ou em português, MELNE (Melhor Estimador Linear Não-Enviesado).

    Como o nome já indica, o estimador ótimo tem que ser: (1) linear; (2) não-enviesado e (3) o melhor da classe dos estimadores lineares não-enviesados.

    Portanto, vamos discorrer sobre cada um dos pontos:

    Quanto a linearidade, um estimador linear é aquele em que o estimador beta é função linear da variável dependente do modelo de regressão, no caso, a variável Y.

    No artigo anterior, onde demonstramos as propriedades distributivas dos estimadores de MQO, provamos que o estimador beta 2 é uma função linear.

    Quanto ao estimador ser não-enviesado, como também tratamos no artigo anterior, um estimador é não enviesado quando a média do estimador é igual ao valor real do parâmetro, no caso dos estimador de beta, um estimador é não-enviesado quando:

 

     O terceiro ponto é o mais relevante: ser o melhor estimador linear não-enviesado. Em essência, os estimadores de MQO não são os únicos estimadores lineares não-enviesados de beta, mas eles são os melhores que existem. O porquê dos estimadores de MQO ser os melhores é o fato de a variância ser a mínima possível. Como foi tratado anteriormente, o fundamento da qualidade de um estimador é a sua variância, quanto menor for a variância de um estimador, melhor ele é.

    Através do teorema de Gauss-Markov é possível provar que os estimadores de MQO obtidos anteriormente são os Melhores Estimadores Lineares Não-Enviesados, e é isso que faremos nas próximas linhas desse artigo, começando com o estimador de beta 2.

    Como visto, para provar que o estimador de beta 2 é um blue ele precisa ser: (1) linear; (2) não-enviesado e (3) ter variância mínima. Quanto a sua linearidade, ela se torna óbvia quando retomamos a equação utilizada para deduzir sua média no artigo anterior, onde colocamos que beta 2 é uma função linear de Y, dada por:

    

.     Quanto a ser não-enviesado, já provamos por extenso que a média do estimador beta 2 é igual ao valor do parâmetro beta 2:

    Tendo em mente esses dois fatores, como podemos descobrir se a sua variância é ou não a menor dentre todos os outros estimadores lineares não-enviesados? Naturalmente, iremos comparar com outro estimador linear não-enviesado, que iremos chamar de estimador alternativo, que também será uma função linear de Y, com exceção de que chamaremos o seu peso de w, não de k:


    Para que seja não-enviesado é necessário que:

    Para verificarmos se isso se observa, vamos aplicar o mesmo processo que aplicamos para descobrir se o estimador MQO é não-enviesado:

    O que observa é que para que o estimador seja não-enviesado, os pesos w devem ter as mesmas propriedades dos pesos k, ou seja:

    Nessas condições temos que o estimador beta 2 alternativo é linear e não-enviesado, podemos agora tirar sua variância e comparar com a variância do estimador MQO.

    Temos a variância dada como:

    Que é o mesmo que:

    Como w é não-aleatório:


     Como E(Y)² = σ²:

    Se aplicarmos uma transformação com base no princípio da soma zero:

    Observe que essencialmente é σ²((w - k) + k)², que é equivalente a σ²(w-k)² + σ²2(w-k)k + σ²k², ou seja:

     Observe que o último termo é igual a zero, dado que:

  

    Temos então:

    Quanto ao segundo termo:

    Passamos a ter portanto:

 

    Aqui vem o pulo do gato! Caso você lembre, a variância do estimador beta 2 de MQO é dada por:

 

    Que coincide com o segundo termo, de tal maneira que a única maneira de a variância de um estimador genérico beta 2 que não seja o MQO não ser maior que a variância do beta 2 MQO é através da manipulação do primeiro termo, no caso, a única solução possível é tornar esse termo igual a zero, para isso é preciso fazer com que o peso w seja igual a k:

 

     Todo e qualquer valor de w diferente de k, resultaria em uma situação onde:

 

     O que tornaria esse estimador alternativo pior do que o estimador de MQO.

     Acontece que no caso onde w é igual a k, o estimador genérico se torna o estimador de MQO, tal que:

    Com isso fica provado que o estimador beta 2 de MQO é um BLUE, ou seja, ele é o estimador com menor variância dentre todos os estimadores lineares não-enviesados de beta 2.

    Embora simples, o teorema de Gauss-Markov é extremamente útil, e com o tempo iremos revisitar ele para verificar se o estimador beta 2 segue sendo o melhor estimador, mesmo com as alterações do ambiente (como a existência de heterocedasticidade ou multicolinearidade).

    O importante, por hora, é saber que dadas as hipóteses básicas do Modelo de Regressão Linear Simples Clássico, os estimadores de MQO são BLUE.

Bibliografia:

GUJARATI, Damodar N; PORTER, Dawn C. Basic Econometrics. 5ª Edição. New York. The McGraw-Hill, 2008.
 

Comentários