Monta-se uma hipótese principal (hipótese nula)
em que \(\theta\) é uma característica da população.
Exemplos:
proporção populacional;
média populacional;
variância da população;
distribuição da população;
homogeneidade;
entre outros.
Ou seja, é feita uma afirmação sobre uma característica.
Supõe-se inicialmente que \(H_0\) seja verdadeira.
Obtém-se uma estatística para testar \(H_0\).
Decide-se sobre rejeitar (manter como verdade) ou não essa hipótese.
Caso \(H_0\) seja rejeitada, sua hipótese complementar (alternativa) é considerada como verdadeira.
Então, o teste deve ser dicotômico, com apenas duas possibilidades.
A hipótese alternativa é normalmente denotada por \(H_a\) ou \(H_1\).
Aqui denotaremos por \(H_a\).
Neste caso a hipótese nula é dada por:
em que \(\mu_1\) é a média de uma população 1 e \(\mu_2\) é a média de uma população 2.
Aqui o objetivo é comparar se, em média, as populações são iguais.
Para isso, deve-se considerar o teste de hipóteses, T ou Z, em duas situações:
Neste caso, o teste é realizado considerando a diferença entre cada par de observações no mesmo indivíduo.
Ou seja, consideram-se uma amostra obtida a partir dos individuos antes de alguma intervenção \(X_{11}, X_{12}, \cdots, X_{1n}\) (população 1);
e uma amostra obtida após alguma intervenção \(X_{21}, X_{22}, \cdots, X_{2n}\) (população 2).
Consideram-se as diferenças \((X_{11}-X_{21}), (X_{12}-X_{22}), \cdots, (X_{1n}- X_{2n})\).
A hipótese nula é dada por:
com \(\mu_d\) representando a média das diferenças para as populações.
Que pode ser testada normalmente a partir da única amostra resultante.
Neste caso, a hipótese é:
\(H_0: \mu_1-\mu_2=0\),
e o teste é realizado com as duas amostras: \(X_{11}, X_{12}, \cdots, X_{1n}\) e \(X_{21}, X_{22}, \cdots, X_{2n}\).
A estatística a ser utilizada para a realização do teste vai depender se as duas populações têm mesma variância ou variâncias diferentes.
Além disso devem ser considerados os casos em que a variância é conhecida ou não, e se as populações são normalmente distribuidas.
Este é um procedimento utilizado para comparar três ou mais médias populacionais, tendo como base as variâncias amostrais.
Os dados amostrais são separados em grupos segundo uma característica (fator).
-Fator: é uma característica que permite distinguir diferentes populações umas das outras.
Cada fator contém dois ou mais grupos (classificações).
Existem muitas formas de realizar uma análise de variância, que depende do tipo de experimento a ser realizado.
Um experimento pode envolver as seguintes atividades.
Conjectura: uma hipótese que motiva o experimento.
Experimento: o teste realizado para investigar a congectura.
Análise: investigação estatística dos dados gerados no experimento.
Conclusão: afirmação ou reformulação da conjectura proposta inicialmente.
Caso a conjectura seja reformulada, novo experimento é requerido.
O objetivo aqui é testar se, em média, existe diferença entre \(k > 2\) populações.
Então, têm-se as hipóteses:
\(H_0:\mu_1=\mu_2=\cdots=\mu_k\) vs
\(H_1:\mu_j\neq\mu_l, \mbox{ para algum par } j \neq l\),
em que: \(\mu_j = \mu + b_j\)
O que equivale a testar:
\(H_0:b_1=b_2=\cdots=b_k=0\) vs
\(H_1:b_j\neq0, \mbox{ para algum } j.\)
Para realizar esse teste, assume-se que as \(k\) populações são normais e que todas as variâncias populacionais são iguais.
Ou seja: \(\sigma_1^2 = \sigma_2^2 = \cdots = \sigma_k^2 = \sigma^2\).
Os tratamentos podem ser como segue.
Quantitativos: doses de remédios, temperaturas, resistências etc.
Qualitativos: marcas de equipamentos, tipos de plantas, diferentes interfaces etc.
O tipo de tratamento afeta a forma como os dados são analisados.
Em relação aos fatores, podemos ter diferentes fatores controláveis. Aqui abordaremos experimentos com apenas um fator.
\[ \begin{aligned} & \text {Dados típicos para experimento com um único fator. }\\ &\begin{array}{c|ccc} \hline \text{Replicações}&& \text{Fator} \\ & \text{Tratamento 1} & \text{Tratamento 2} & \cdots & \text{Tratamento k} \\\hline 1 & y_{11} & y_{12} &\cdots & y_{1k} \\ 2 & y_{21} & y_{22} &\cdots & y_{2k} \\ \vdots&\vdots & \vdots&\vdots & \vdots \\ n & y_{n1} & y_{n2} & \cdots& y_{nk} \\ \hline Médias & \overline{y_1}&\overline{y_2}&\cdots&\overline{y_k}\\ \hline \end{array} \end{aligned} \]
- Experimentos com um fator e efeito fixo, tem com modelo:
\(y_{ij} = \mu + b_j + \epsilon_{ij}\)
para \(i=1, \cdots, n\)
e \(j=1,\cdots k\).
Queremos testar: \(H_0:\mu_1=\mu_2=\cdots=\mu_k\) vs \(H_1:\mu_j\neq\mu_l, \mbox{ para algum par } j \neq l\)
Ainda…
O que equivale a testar: \(H_0:b_1=b_2=\cdots=b_k=0\) vs \(H_1:b_j\neq0, \mbox{ para algum } j.\)
Em que: \(\sum_{j=1}^{k}b_j=0\)
A partir da divisão da soma de quadrados global em soma de quadrado entre os tratamentos e soma de quadrados dentro dos grupos, tem-se a seguinte igualdade: \[\sum_{j=1}^{k}\sum_{i=1}^{n}(y_{ij}-\overline{y})^2=n\sum_{j=1}^{k}(\overline{y}_{j}-\overline{y})^2+\sum_{j=1}^{k}\sum_{i=1}^{n}(y_{ij}-\overline{y}_j)^2\] Que dá origem a estatística:
\[F_{obs} = \frac{\sum_{j=1}^{k}(\overline{y}_{j}-\overline{y})^2/(k-1)}{\sum_{j=1}^{k}\sum_{i=1}^{n}(y_{ij}-\overline{y}_j)^2/[k(n-1)]}\]
Esse valor pode ser usado para saber o quão improvável é a distriuição considerada, a partir da hipótese principal adotada.
Com o objetivo de avaliar as modificações promovidas na interface de um sistema, foi realizado um experimento composto por 4 intervenções distintas.
Para cada intervenção, foram investigados 20 usuários que atuam na mesma área.
No experimento, para cada usuário foi medido o grau de satisfação, usando para isso um modelo estatístico previamente treinado para este fim.
Então, cada individuo avaliou uma interface que foi escolhida para ele de forma aleatória.
O grau de satisfação foi patronizado para assumir valores entre 0 e 100, em que zero índica um usuário muito insatisfeito e 100 indica um usuário muito satisfeito.
Users | Trat 1 | Trat 2 | Trat 3 | Trat 4 |
---|---|---|---|---|
1 | 0.60 | 0.82 | 0.79 | 0.82 |
2 | 0.62 | 0.85 | 0.83 | 0.81 |
3 | 0.61 | 0.78 | 0.82 | 0.79 |
4 | 0.64 | 0.79 | 0.81 | 0.80 |
5 | 0.63 | 0.80 | 0.82 | 0.79 |
Neste exemplo o fator investigado é o design da interface do sistema.
E cada usuário representa uma replicação do experimento para os 4 tratamentos.
Já as intervenções realizadas representam tratamentos que são níveis (ou categorias) do fator que é controlável no experimento.
Um tratamento é uma condição imposta que se deseja avaliar em um experimento.
Cada nível define um grupo de observações.
Ainda no exemplo, o grau de satisfação é denominada resposta, ou variável dependente do fator, que é independenteno modelo.
Passo 1: instalar a extensão XLMiner Analysis ToolPak;
Passo 2: carregar a base de dados no formato adequado;
Passo 3: selecionar os valores de resposta;
Passo 4: Clicar em Extensões > XLMiner Analysis ToolPak > Start.
Esta extensão pode aplicar também o teste t e normal para uma amostra.