Conceitos Fundamentais de Estatística: Fator de Correção, Erros e Teoremas
Classificado em Matemática
Escrito em em português com um tamanho de 3,62 KB
Fator de Correção para População Finita (FCPF)
Explicação de como e quando é utilizado o fator de correção finita:
O Fator de Correção para População Finita é necessário quando você estiver trabalhando com um tamanho de amostra (n) que não seja tão pequeno em relação ao tamanho da população (N), e se a amostragem realizada for sem reposição. Nesses casos, é obrigatório realizar uma correção na estimativa do erro-padrão da distribuição amostral.
O fator de correção para população finita, em amostragem sem reposição, é dado por: $$(N-n)/(N-1)$$
Onde N é o tamanho da população e n é o tamanho da amostra.
Uma regra prática para o uso da correção é dada por meio da relação entre o tamanho da amostra e o tamanho da população. Então, se $n/N$ (o texto original está incompleto, mas implica uma condição), devemos fazer a correção para população finita, e teremos o desvio-padrão ajustado. Esta correção, quando necessária, deve ser utilizada para qualquer distribuição amostral.
Teorema Central do Limite (TCL)
O Teorema Central do Limite é um importante resultado da estatística, e a demonstração de muitos outros teoremas estatísticos depende dele. Em teoria das probabilidades, esse teorema afirma que, quando o tamanho da amostra aumenta, a distribuição amostral da sua média aproxima-se cada vez mais de uma distribuição normal. Este resultado é fundamental na teoria da inferência estatística.
Erros em Testes de Hipóteses
Erro Tipo I (Alfa - $\alpha$)
Ocorre quando a hipótese nula ($H_0$) é verdadeira e você a rejeita. A probabilidade de cometer um Erro Tipo I é $\alpha$ (alfa), que é o nível de significância definido para o teste de hipóteses.
Um $\alpha$ de 0,05 indica que você aceita uma chance de 5% de estar errado ao rejeitar a hipótese nula. Para reduzir este risco, você deve usar um valor inferior para $\alpha$. Entretanto, usar um valor inferior para alfa significa que você terá menos probabilidade de detectar uma diferença verdadeira, se ela realmente existir.
Erro Tipo II (Beta - $\beta$)
Ocorre quando a hipótese nula ($H_0$) é falsa e você não a rejeita. A probabilidade de cometer um Erro Tipo II é $\beta$ (beta), que depende do poder do teste.
Você pode diminuir o risco de cometer um Erro Tipo II, assegurando que o seu teste tenha potência suficiente. Isso pode ser feito garantindo que o tamanho amostral seja grande o suficiente para detectar uma diferença prática, quando realmente existir uma.
Significância Estatística
Em estatística, um resultado tem significância estatística se for improvável que tenha ocorrido por acaso. Mais concretamente, a significância está relacionada ao nível de confiança ao rejeitar a hipótese nula quando esta, na verdade, é verdadeira (Erro Tipo I).
O nível de significância de um resultado é também chamado de $\alpha$ e não deve ser confundido com o valor p (p-value). Teste de significância é uma expressão cunhada por Ronald Fisher.
Grau de Liberdade
Grau de liberdade é, em estatística, o número de determinações independentes (dimensão da amostra) menos o número de parâmetros estatísticos a serem avaliados na população. É um estimador do número de categorias independentes num teste particular ou experiência estatística.