Estimador pontual e estimativa pontual
Dado um espaço de probabilidade associado a um experimento aleatório. Seja uma amostra aleatória da variável aleatória com função de distribuição (ou densidade) de probabilidade (ou ), em que é um parâmetro desconhecido. Qualquer estatística que assume valores em é um estimador para . Quando é uma observação da amostra , dizemos que é uma estimativa para .

Note que, enquanto um estimador é uma função da amostra (estatística), uma estimativa é um valor (produzido ao aplicar uma amostra a um estimador).

Comparação de estimadores

Veja que apenas encontrar um estimador e com ele produzir estimativas não basta, tendo em vista que podem existir diversas estatísticas que produzem valores no espaço paramétrico . Portanto, é necessário também saber avaliar e comparar estimadores. De maneira geral, um estimador é melhor do que o outro se ele produz estimativas mais próximas do parâmetro que se deseja estimar. Mas como o parâmetro é desconhecido, essa noção de proximidade deve se dar a partir da distribuição amostral de .

A seguir definimos duas propriedades importantíssimas dos estimadores:

Viés de um estimador
Dado um espaço de probabilidade associado a um experimento aleatório. Seja uma amostra aleatória da variável aleatória com função de distribuição (ou densidade) de probabilidade (ou ), em que é um parâmetro desconhecido. O viés de um estimador para o parâmetro é uma função tal que

Quando

  • , dizemos que é um estimador não-viesado para ;
  • , dizemos que é um estimador viesado positivamente para ;
  • , dizemos que é um estimador viesado negativamente para ;

Erro quadrático médio (EQM)
Dado um espaço de probabilidade associado a um experimento aleatório. Seja uma amostra aleatória da variável aleatória com função de distribuição (ou densidade) de probabilidade (ou ), em que é um parâmetro desconhecido. O erro quadrático médio de um estimador para o parâmetro é uma função tal que

ou ainda

Com essas definições, podemos então comparar dois estimadores diferentes e verificar qual é melhor através de seus EQMs:

Melhor estimador
Dado um espaço de probabilidade associado a um experimento aleatório. Seja uma amostra aleatória da variável aleatória com função de distribuição (ou densidade) de probabilidade (ou ), em que é um parâmetro desconhecido. O estimador para é dito ser melhor que o estimador quando

para todo .

Estimadores de máxima verossimilhança

Saber comparar estimadores só é útil quando já temos dois estimadores definidos e queremos saber qual deles é melhor. Mas muitas vezes é necessário obter os estimadores, e mais, obter bons estimadores. O método da máxima verossimilhança nos permite derivar bons estimadores pontuais com boas propriedades, tendo como base apenas a amostra e sua distribuição.

Esse método é bastante intuitivo, pois ele consiste em tentar encontrar o valor do parâmetro que é mais plausível de ter produzido os dados que de fato observamos (amostra).

Função, estimador e estimativa de máxima verossimilhança
Dado um espaço de probabilidade associado a um experimento aleatório. Seja uma amostra aleatória da variável aleatória com função de distribuição (ou densidade) de probabilidade (ou ), em que é um parâmetro desconhecido.

  • Observada a amostra de , a função de verossimilhança é a função tal que

no caso em que é uma variável aleatória discreta e

no caso em que é uma variável aleatória contínua.

  • Suponha que o argumento que maximiza a função de verossimilhança existe e é igual a , para cada amostra que pode ser observada a partir de . A estatística é chamada de estimador de máxima verossimilhança para .
  • Observada a amostra de e sendo um estimador de máxima verossimilhança para , então é uma estimativa de máxima verossimilhança para .

Veja que se a ideia é encontrar o argumento que maximiza a função de verossimilhança, podemos derivar essa função e então encontrar seu ponto de máximo. Note que derivar funções pode se tornar algo complicado, entretanto sabemos que é simples derivar funções logarítmicas. Portanto, podemos manipular a função de máxima verossimilhança para facilitar a sua derivação:

Função log-verossimilhança
Dado que é uma função contínua estritamente crescente para todo e é uma função positiva para todo . Para qualquer que seja a amostra observada de , podemos considerar o logaritmo natural da função de verossimilhança de :

o qual é chamado de função de log-verossimilhança de . Assim, o valor de que maximiza a função de verossimilhança é também o que maximiza a função de log-verossimilhança

Dessa forma, para encontramos o estimador de máxima verossimilhança , basta encontrar o argumento que maximiza a função log-verossimilhança .

Propriedades dos estimadores de máxima verossimilhança

Os estimadores de máxima verossimilhança são muito utilizados pois eles possuem boas propriedades estatísticas, a principal delas é enunciada no teorema a seguir:

Princípio da invariância
Dado um espaço de probabilidade associado a um experimento aleatório. Seja uma amostra aleatória da variável aleatória com função de distribuição (ou densidade) de probabilidade (ou ), em que é um parâmetro desconhecido. Se é um estimador de máxima verossimilhança para , então é um estimador de máxima verossimilhança para , sempre que for uma função bijetora.