Estimador pontual e estimativa pontual
Dado um espaço de probabilidade associado a um experimento aleatório. Seja uma amostra aleatória da variável aleatória com função de distribuição (ou densidade) de probabilidade (ou ), em que é um parâmetro desconhecido. Qualquer estatística que assume valores em é um estimador para . Quando é uma observação da amostra , dizemos que é uma estimativa para .
Note que, enquanto um estimador é uma função da amostra (estatística), uma estimativa é um valor (produzido ao aplicar uma amostra a um estimador).
Comparação de estimadores
Veja que apenas encontrar um estimador e com ele produzir estimativas não basta, tendo em vista que podem existir diversas estatísticas que produzem valores no espaço paramétrico . Portanto, é necessário também saber avaliar e comparar estimadores. De maneira geral, um estimador é melhor do que o outro se ele produz estimativas mais próximas do parâmetro que se deseja estimar. Mas como o parâmetro é desconhecido, essa noção de proximidade deve se dar a partir da distribuição amostral de .
A seguir definimos duas propriedades importantíssimas dos estimadores:
Viés de um estimador
Dado um espaço de probabilidade associado a um experimento aleatório. Seja uma amostra aleatória da variável aleatória com função de distribuição (ou densidade) de probabilidade (ou ), em que é um parâmetro desconhecido. O viés de um estimador para o parâmetro é uma função tal que
Quando
- , dizemos que é um estimador não-viesado para ;
- , dizemos que é um estimador viesado positivamente para ;
- , dizemos que é um estimador viesado negativamente para ;
Erro quadrático médio (EQM)
Dado um espaço de probabilidade associado a um experimento aleatório. Seja uma amostra aleatória da variável aleatória com função de distribuição (ou densidade) de probabilidade (ou ), em que é um parâmetro desconhecido. O erro quadrático médio de um estimador para o parâmetro é uma função tal que
ou ainda
Com essas definições, podemos então comparar dois estimadores diferentes e verificar qual é melhor através de seus EQMs:
Melhor estimador
Dado um espaço de probabilidade associado a um experimento aleatório. Seja uma amostra aleatória da variável aleatória com função de distribuição (ou densidade) de probabilidade (ou ), em que é um parâmetro desconhecido. O estimador para é dito ser melhor que o estimador quando
para todo .
Estimadores de máxima verossimilhança
Saber comparar estimadores só é útil quando já temos dois estimadores definidos e queremos saber qual deles é melhor. Mas muitas vezes é necessário obter os estimadores, e mais, obter bons estimadores. O método da máxima verossimilhança nos permite derivar bons estimadores pontuais com boas propriedades, tendo como base apenas a amostra e sua distribuição.
Esse método é bastante intuitivo, pois ele consiste em tentar encontrar o valor do parâmetro que é mais plausível de ter produzido os dados que de fato observamos (amostra).
Função, estimador e estimativa de máxima verossimilhança
Dado um espaço de probabilidade associado a um experimento aleatório. Seja uma amostra aleatória da variável aleatória com função de distribuição (ou densidade) de probabilidade (ou ), em que é um parâmetro desconhecido.
- Observada a amostra de , a função de verossimilhança é a função tal que
no caso em que é uma variável aleatória discreta e
no caso em que é uma variável aleatória contínua.
- Suponha que o argumento que maximiza a função de verossimilhança existe e é igual a , para cada amostra que pode ser observada a partir de . A estatística é chamada de estimador de máxima verossimilhança para .
- Observada a amostra de e sendo um estimador de máxima verossimilhança para , então é uma estimativa de máxima verossimilhança para .
Veja que se a ideia é encontrar o argumento que maximiza a função de verossimilhança, podemos derivar essa função e então encontrar seu ponto de máximo. Note que derivar funções pode se tornar algo complicado, entretanto sabemos que é simples derivar funções logarítmicas. Portanto, podemos manipular a função de máxima verossimilhança para facilitar a sua derivação:
Função log-verossimilhança
Dado que é uma função contínua estritamente crescente para todo e é uma função positiva para todo . Para qualquer que seja a amostra observada de , podemos considerar o logaritmo natural da função de verossimilhança de :
o qual é chamado de função de log-verossimilhança de . Assim, o valor de que maximiza a função de verossimilhança é também o que maximiza a função de log-verossimilhança
Dessa forma, para encontramos o estimador de máxima verossimilhança , basta encontrar o argumento que maximiza a função log-verossimilhança .
Propriedades dos estimadores de máxima verossimilhança
Os estimadores de máxima verossimilhança são muito utilizados pois eles possuem boas propriedades estatísticas, a principal delas é enunciada no teorema a seguir:
Princípio da invariância
Dado um espaço de probabilidade associado a um experimento aleatório. Seja uma amostra aleatória da variável aleatória com função de distribuição (ou densidade) de probabilidade (ou ), em que é um parâmetro desconhecido. Se é um estimador de máxima verossimilhança para , então é um estimador de máxima verossimilhança para , sempre que for uma função bijetora.