6.3.1 Tests d’hypothèse et études multi-échantillons

De même que de nombreuses quantités peuvent être à estimer dans une étude multi-échantillon, il peut y avoir de nombreux tests d’hypothèse à effectuer. On peut par exemple souhaiter obtenir des valeurs p pour des hypothèses comme :
.
6.3.1 .1   \mathrm{H}_{0}: \mu_3=7
6.3.1.2    \mathrm{H}_{0}: \mu_3-\mu_7=0
6.3.1.3    \mathrm{H}_{0}: \mu_1-\frac{ 1}{ 2}\left(\mu_2+\mu_3\right)=0
.
Les méthodes d’intervalle de confiance abordées à la section 6.2 ont des méthodes équivalentes pour les tests d’hypothèse qui, comme les trois ci-dessus, impliquent une combinaison linéaire des moyennes \mu_1, \mu_2, \ldots, \mu_{r}.
.
En général (sous le modèle à un facteur standard), soit :
.
L=c_1 \mu_1+c_2 \mu_2+\cdots+c_{r} \mu_{r}
.
Alors, l’hypothèse
6.3.1.4                    \mathrm{H}_{0}: L=\#
.
peut être testée à l’aide de la statistique de test suivante :
.
6.3.1.5
.
T=\frac{\hat{L}-\#}{s_{\mathrm{P}} \sqrt{\frac{c_1^2}{n_1}+\frac{c_2^2}{n_2}+\cdots+\frac{c_r^2}{n_r}}}
.
et d’une distribution t_{n-r} de référence. Pour adapter cet énoncé aux hypothèses de type 6.3.1.1 à 6.3.1.3, il suffit de choisir les c_{i} et # correctement.
.
Mais la méthode de test d’hypothèses le plus souvent associée au modèle normal à un facteur ne convient pas aux hypothèses de type 6.3.1.4. La méthode la plus courante repose plutôt sur l’hypothèse selon laquelle les r moyennes sous-jacentes sont égales. En symboles, cela équivaut à :
.
6.3.1.6                    \mathrm{H}_{0}: \mu_1=\mu_2=\cdots=\mu_{r}
.
Si on travaille à partir des hypothèses du modèle à un facteur, l’hypothèse 6.3.1.6 revient à affirmer que les r distributions sous-jacentes sont essentiellement les mêmes – autrement dit, « il n’y a aucune différence entre les processus ».
.
L’hypothèse 6.3.1.6 peut être considérée comme l’égalité simultanée des \frac{r(r-1)}{ 2} paires de moyennes – c’est-à-dire qu’elle est équivalente à l’affirmation selon laquelle, simultanément,
.
\mu_1-\mu_2=0, \quad \mu_1-\mu_3=0, \quad \ldots, \quad \mu_1-\mu_{r}=0 \\\mu_2-\mu_3=0, \quad \ldots, \quad \text { et } \quad \mu_{r-1}-\mu_{r}=0
.
Cet énoncé n’est pas sans rappeler ce qui a été dit sur les intervalles de confiance simultanés de la section précédente (à savoir la méthode de Tukey). D’ailleurs, l’une des façons de juger de la signification statistique d’un ensemble de données à r échantillons, en ayant pour référence l’hypothèse 6.3.1.6, est d’appliquer la méthode de Tukey d’estimation d’intervalles simultanés et de noter si tous les intervalles de différences de moyennes incluent la valeur 0. Si c’est le cas pour tous, la valeur p associée est supérieure à 1 moins le niveau de confiance simultané. Sinon, la valeur p associée est inférieure à 1 moins le niveau de confiance simultané. (Par exemple, si les intervalles simultanés de 95 \% incluent tous 0, alors aucune différence entre les moyennes n’est définitivement établie et la valeur p correspondante est supérieure à 0,05.)
.
Nous admettons privilégier l’estimation plutôt que les tests d’hypothèse. Conséquence : une tendance à déduire une approximation de la valeur p pour l’hypothèse 6.3.1.6 en utilisant la méthode de Tukey. Mais une méthode de test plus connue pour l’hypothèse 6.3.1.6 mérite également d’être abordée : l’analyse de la variance à un facteur.
.
Il semble étrange, à ce stade, qu’un test de moyennes porte un nom qui mette apparemment l’accent sur la variance. Ce terme se justifie par le fait que ce test est lié à une façon très pratique de considérer la répartition de la variabilité globale d’une variable de réponse.  Il s’agit du test F de l’ANOVA à un facteur.

Licence

Introduction aux méthodes statistiques en ingénierie© par C. Bassim et Bryan Lee. Tous droits réservés.

Partagez ce livre