Regressão Linear: Hipóteses, Precisão e Coeficientes
Classificado em Matemática
Escrito em em português com um tamanho de 3,71 KB
Capítulo 3: Hipóteses Subjacentes
- Modelo de Regressão Linear: O modelo de regressão é linear nos parâmetros, embora possa não ser linear nas variáveis. Este é o modelo de regressão como mostrado na equação Yᵢ = β₁ + β₂Xᵢ + uᵢ.
- Valores de X Fixos ou Independentes do Termo de Erro: Os valores assumidos pelo regressor X podem ser fixos em amostras repetidas (caso do regressor fixo) ou seus valores podem mudar de acordo com a variável dependente Y. No segundo caso, supõe-se que as variáveis X e o termo de erro são independentes, isto é, cov(Xᵢ, uᵢ) = 0.
Precisão dos Mínimos Quadrados
O erro padrão é apenas o desvio padrão da distribuição amostral do estimador. Esta é simplesmente a probabilidade ou distribuição de frequência do estimador, ou seja, uma distribuição do conjunto de valores dos estimadores obtidos de todas as amostras possíveis, do mesmo tamanho, de uma dada população. As distribuições amostrais são usadas para fazer inferências sobre os valores dos parâmetros populacionais com base nos valores calculados dos estimadores baseados em uma ou mais amostras.
A expressão graus de liberdade (gl) representa o número total de observações da amostra (n) menos o número de restrições independentes impostas a ela. Em outras palavras, é o número de observações independentes dentre um total de n observações. Um modelo com k variáveis terá gl = n - k.
Erro Padrão da Estimativa Linear
É o desvio padrão dos valores de Y em relação à linha de regressão estimada, sendo frequentemente usada como uma medida sintética da “qualidade do ajustamento” da linha de regressão estimada.
Teorema de Gauss-Markov
Dadas as premissas do modelo clássico de regressão linear, os estimadores de mínimos quadrados da classe dos estimadores lineares não viesados têm variância mínima, isto é, são o melhor estimador linear não viesado (MELNV).
- É linear, isto é, uma função linear de uma variável aleatória, como a variável dependente Y no modelo de regressão.
- É não viesado, isto é, seu valor médio ou esperado E(β̂₂) é igual ao verdadeiro valor β₂.
- Tem variância mínima na classe de todos os estimadores lineares não viesados; um estimador não viesado com a menor variância é conhecido como um estimador eficiente.
Coeficiente de Determinação (R²)
O coeficiente de determinação r² (no caso de duas variáveis) ou R² (regressão múltipla) é uma medida resumida que diz o quanto a linha de regressão se ajusta aos dados. É o indicador mais usado para medir a qualidade do ajustamento de uma linha de regressão.
Coeficiente de Correlação
É uma medida do grau de associação linear entre duas variáveis. Pode ser calculado por r = ±√R², e situa-se entre -1 e 1; -1 ≤ r ≤ 1.
- r = 1: correlação linear perfeita positiva
- r = -1: correlação linear perfeita negativa
- r próximo de 1: correlação linear positiva forte
- r próximo de zero (negativo ou positivo): correlação linear fraca ou inexistente
Capítulo 4: Hipótese de Normalidade
O que é a Hipótese de Normalidade?
Em estatística, os testes de normalidade são usados para determinar se um conjunto de dados de uma dada variável aleatória é bem modelado por uma distribuição normal ou não, ou para calcular a probabilidade da variável aleatória subjacente estar normalmente distribuída.