Teste Estatístico de Hipóteses

Hipóteses

Monta-se uma hipótese principal (hipótese nula)

  • \(H_0: \theta=\theta_0\)

em que \(\theta\) é uma característica da população.

Exemplos:

  • proporção populacional;

  • média populacional;

  • variância da população;

  • distribuição da população;

  • homogeneidade;

  • entre outros.

Ou seja, é feita uma afirmação sobre uma característica.

  • Supõe-se inicialmente que \(H_0\) seja verdadeira.

  • Obtém-se uma estatística para testar \(H_0\).

  • Decide-se sobre rejeitar (manter como verdade) ou não essa hipótese.

  • Caso \(H_0\) seja rejeitada, sua hipótese complementar (alternativa) é considerada como verdadeira.

  • Então, o teste deve ser dicotômico, com apenas duas possibilidades.

  • A hipótese alternativa é normalmente denotada por \(H_a\) ou \(H_1\).

  • Aqui denotaremos por \(H_a\).

Teste de hipóteses para comparação de duas médias

Neste caso a hipótese nula é dada por:

  • \(H_0: \mu_1=\mu_2\)

em que \(\mu_1\) é a média de uma população 1 e \(\mu_2\) é a média de uma população 2.

  • Aqui o objetivo é comparar se, em média, as populações são iguais.

  • Para isso, deve-se considerar o teste de hipóteses, T ou Z, em duas situações:

    • teste t pareado, caso cada medida seja realizada no mesmo indivíduo (antes e depois);
    • teste para amostras independentes.

Teste T pareado

  • Neste caso, o teste é realizado considerando a diferença entre cada par de observações no mesmo indivíduo.

  • Ou seja, consideram-se uma amostra obtida a partir dos individuos antes de alguma intervenção \(X_{11}, X_{12}, \cdots, X_{1n}\) (população 1);

  • e uma amostra obtida após alguma intervenção \(X_{21}, X_{22}, \cdots, X_{2n}\) (população 2).

  • Consideram-se as diferenças \((X_{11}-X_{21}), (X_{12}-X_{22}), \cdots, (X_{1n}- X_{2n})\).

Teste T pareado

A hipótese nula é dada por:

  • \(H_0: \mu_d = 0\),

com \(\mu_d\) representando a média das diferenças para as populações.

Que pode ser testada normalmente a partir da única amostra resultante.

Teste para duas médias: populações independentes

  • Neste caso, a hipótese é:

  • \(H_0: \mu_1-\mu_2=0\),

e o teste é realizado com as duas amostras: \(X_{11}, X_{12}, \cdots, X_{1n}\) e \(X_{21}, X_{22}, \cdots, X_{2n}\).

  • A estatística a ser utilizada para a realização do teste vai depender se as duas populações têm mesma variância ou variâncias diferentes.

  • Além disso devem ser considerados os casos em que a variância é conhecida ou não, e se as populações são normalmente distribuidas.

ANOVA um fator fixo

Análise de variância (ANOVA)

  • Este é um procedimento utilizado para comparar três ou mais médias populacionais, tendo como base as variâncias amostrais.

  • Os dados amostrais são separados em grupos segundo uma característica (fator).

-Fator: é uma característica que permite distinguir diferentes populações umas das outras.

  • Cada fator contém dois ou mais grupos (classificações).

  • Existem muitas formas de realizar uma análise de variância, que depende do tipo de experimento a ser realizado.

Experimento

Um experimento pode envolver as seguintes atividades.

  • Conjectura: uma hipótese que motiva o experimento.

  • Experimento: o teste realizado para investigar a congectura.

  • Análise: investigação estatística dos dados gerados no experimento.

  • Conclusão: afirmação ou reformulação da conjectura proposta inicialmente.

Caso a conjectura seja reformulada, novo experimento é requerido.

Teste e presupostos

O objetivo aqui é testar se, em média, existe diferença entre \(k > 2\) populações.

Então, têm-se as hipóteses:

\(H_0:\mu_1=\mu_2=\cdots=\mu_k\) vs

\(H_1:\mu_j\neq\mu_l, \mbox{ para algum par } j \neq l\),

em que: \(\mu_j = \mu + b_j\)

O que equivale a testar:

\(H_0:b_1=b_2=\cdots=b_k=0\) vs

\(H_1:b_j\neq0, \mbox{ para algum } j.\)

Teste e presupostos

  • Para realizar esse teste, assume-se que as \(k\) populações são normais e que todas as variâncias populacionais são iguais.

  • Ou seja: \(\sigma_1^2 = \sigma_2^2 = \cdots = \sigma_k^2 = \sigma^2\).

Fatores e Tipos de Tratamentos

Os tratamentos podem ser como segue.

  • Quantitativos: doses de remédios, temperaturas, resistências etc.

  • Qualitativos: marcas de equipamentos, tipos de plantas, diferentes interfaces etc.

O tipo de tratamento afeta a forma como os dados são analisados.

Em relação aos fatores, podemos ter diferentes fatores controláveis. Aqui abordaremos experimentos com apenas um fator.

Modelo

\[ \begin{aligned} & \text {Dados típicos para experimento com um único fator. }\\ &\begin{array}{c|ccc} \hline \text{Replicações}&& \text{Fator} \\ & \text{Tratamento 1} & \text{Tratamento 2} & \cdots & \text{Tratamento k} \\\hline 1 & y_{11} & y_{12} &\cdots & y_{1k} \\ 2 & y_{21} & y_{22} &\cdots & y_{2k} \\ \vdots&\vdots & \vdots&\vdots & \vdots \\ n & y_{n1} & y_{n2} & \cdots& y_{nk} \\ \hline Médias & \overline{y_1}&\overline{y_2}&\cdots&\overline{y_k}\\ \hline \end{array} \end{aligned} \]

- Experimentos com um fator e efeito fixo, tem com modelo:

\(y_{ij} = \mu + b_j + \epsilon_{ij}\)

  • para \(i=1, \cdots, n\)

  • e \(j=1,\cdots k\).

Queremos testar: \(H_0:\mu_1=\mu_2=\cdots=\mu_k\) vs \(H_1:\mu_j\neq\mu_l, \mbox{ para algum par } j \neq l\)

Ainda…

O que equivale a testar: \(H_0:b_1=b_2=\cdots=b_k=0\) vs \(H_1:b_j\neq0, \mbox{ para algum } j.\)

Em que: \(\sum_{j=1}^{k}b_j=0\)

Somas de quadrados

A partir da divisão da soma de quadrados global em soma de quadrado entre os tratamentos e soma de quadrados dentro dos grupos, tem-se a seguinte igualdade: \[\sum_{j=1}^{k}\sum_{i=1}^{n}(y_{ij}-\overline{y})^2=n\sum_{j=1}^{k}(\overline{y}_{j}-\overline{y})^2+\sum_{j=1}^{k}\sum_{i=1}^{n}(y_{ij}-\overline{y}_j)^2\] Que dá origem a estatística:

\[F_{obs} = \frac{\sum_{j=1}^{k}(\overline{y}_{j}-\overline{y})^2/(k-1)}{\sum_{j=1}^{k}\sum_{i=1}^{n}(y_{ij}-\overline{y}_j)^2/[k(n-1)]}\]

Esse valor pode ser usado para saber o quão improvável é a distriuição considerada, a partir da hipótese principal adotada.

Motivação

  • Com o objetivo de avaliar as modificações promovidas na interface de um sistema, foi realizado um experimento composto por 4 intervenções distintas.

  • Para cada intervenção, foram investigados 20 usuários que atuam na mesma área.

  • No experimento, para cada usuário foi medido o grau de satisfação, usando para isso um modelo estatístico previamente treinado para este fim.

  • Então, cada individuo avaliou uma interface que foi escolhida para ele de forma aleatória.

  • O grau de satisfação foi patronizado para assumir valores entre 0 e 100, em que zero índica um usuário muito insatisfeito e 100 indica um usuário muito satisfeito.

Users Trat 1 Trat 2 Trat 3 Trat 4
1 0.60 0.82 0.79 0.82
2 0.62 0.85 0.83 0.81
3 0.61 0.78 0.82 0.79
4 0.64 0.79 0.81 0.80
5 0.63 0.80 0.82 0.79

Delineamento

  • Neste exemplo o fator investigado é o design da interface do sistema.

  • E cada usuário representa uma replicação do experimento para os 4 tratamentos.

  • Já as intervenções realizadas representam tratamentos que são níveis (ou categorias) do fator que é controlável no experimento.

  • Um tratamento é uma condição imposta que se deseja avaliar em um experimento.

  • Cada nível define um grupo de observações.

  • Ainda no exemplo, o grau de satisfação é denominada resposta, ou variável dependente do fator, que é independenteno modelo.

  • Neste exemplo, os fatores são

Comparação

ANOVA de um fator com google planilhas

  • Passo 1: instalar a extensão XLMiner Analysis ToolPak;

  • Passo 2: carregar a base de dados no formato adequado;

  • Passo 3: selecionar os valores de resposta;

  • Passo 4: Clicar em Extensões > XLMiner Analysis ToolPak > Start.

Esta extensão pode aplicar também o teste t e normal para uma amostra.