4.2.2 Distributions conditionnelles et indépendance

Distributions conditionnelles et indépendance des variables aléatoires discrètes

Lorsqu’on travaille avec plusieurs variables aléatoires, il est souvent utile de réfléchir à ce que l’on attend de l’une des variables compte tenu des valeurs prises par toutes les autres. Par exemple, dans l’exercice du couple de serrage du boulon (X), un technicien qui vient de desserrer le boulon 3 et qui a mesuré le couple à la valeur 15 \mathrm{pi} \mathrm{lb} devrait avoir des attentes pour le couple du boulon 4 (Y) quelque peu différentes, à la lumière de la distribution marginale du tableau 4.2.1.3. Après tout, si on reprend les données du tableau 4.2.2.1, la distribution de la fréquence relative des couples des boulons 4 pour les composants dont le couple du boulon 3 est de 15 \mathrm{pi} \mathrm{lb} est similaire aux valeurs du tableau 4.2.2.1. D’une certaine manière, le fait de savoir que X=15 devrait modifier la distribution de probabilité de Y pour que la distribution de fréquence relative corresponde au tableau 4.2.2.1 plutôt qu’à la distribution marginale du tableau 4.1.1.3.

 

Tableau 4.2.2.1

 

La théorie des probabilités tient compte de cette notion de « distribution d’une variable lorsqu’on connaît les valeurs des autres » à travers le concept de distribution conditionnelle. La version à deux variables est définie ci-après.

 

DÉFINITION 4.2.2.1. Fonction de probabilité conditionnelle de X étant donné que Y=y

EXPRESSION 4.2.2.1

 

Pour des variables aléatoires discrètes X et Y avec une fonction de probabilité conjointe f(x, y), la fonction de probabilité conditionnelle de X étant donné que Y=y est la fonction de x suivante :
f_{X \mid Y}(x \mid y)=\frac{f(x, y)}{\sum_{x} f(x, y)}
La fonction de probabilité conditionnelle de \boldsymbol{Y} étant donné que \boldsymbol{X}=\boldsymbol{x} est la fonction de y suivante :
[latex]f_{Y \mid X}(y \mid x)=\frac{f(x, y)}{\sum_{y} f(x, y)[/latex]
En comparant les définitions 4.2.1.1 et 4.2.2.1, on obtient :
Fonction de probabilité conditionnelle de X étant donné que Y=y      4.2.2.2
f_{X \mid Y}(x \mid y)=\frac{f(x, y)}{f_{Y}(y)}
et
Fonction de probabilité conditionnelle pour Y étant donné que X=x      4.2.2.3
f_{Y \mid X}(y \mid x)=\frac{f(x, y)}{f_{X}(x)}
Calcul de distributions conditionnelles à partir d’une fonction de probabilité conjointe

Les équations 4.2.2.2 et 4.2.2.3 sont parfaitement logiques. La première indique qu’à partir d’une fonction f(x, y) répertoriée dans un tableau à deux entrées et en ne considérant que la ligne Y=y, la distribution conditionnelle appropriée pour X est indiquée par les probabilités de cette ligne (les valeurs de f(x, y)), qu’on divise par leur somme \left(f_{Y}(y)=\right. \sum_{x} f(x, y) ) pour les renormaliser (faire en sorte qu’elles totalisent 1). De même, l’équation 4.2.2.3 indique que si l’on considère uniquement la colonne X=x, la distribution conditionnelle appropriée pour Y est donnée par les probabilités de cette colonne divisées par leur somme.

Exemple 4.2.2.1. Couples des boulons (suite)

Pour illustrer l’utilisation des équations 4.2.2.2 et 4.2.2.3, considérons quelques-unes des distributions conditionnelles associées à la distribution conjointe des couples des boulons 3 et 4, en commençant par la distribution conditionnelle de Y étant donné que X=15.
À partir de l’équation 4.2.2.3,
f_{Y \mid X}(y \mid 15)=\frac{f(15, y)}{f_{X}(15)}
En se référant au tableau 4.2.1.2, la probabilité marginale associée à X=15 est \frac{ 9}{ 34}. Ainsi, en divisant les valeurs dans la colonne X=15 de ce tableau par \frac{ 9}{ 34}, on obtient la distribution conditionnelle pour Y, qui est présentée dans le tableau 4.2.2.2. Si l’on compare ce résultat au tableau 4.2.1.4, on constate que l’équation 4.2.2.3 produit une distribution conditionnelle conforme à l’intuition.

Tableau 4.2.2.2

 

Considérons ensuite f_{Y \mid X}(y \mid 18)f_{Y \mid X}(y \mid 18) :
f_{Y \mid X}(y \mid 18)=\frac{f(18, y)}{f_{X}(18)}
Le tableau 4.2.1.2 nous donne la distribution conditionnelle de Y étant donné que X=18, présentée dans le tableau 4.2.2.3. Les tableaux 4.2.2.2 et 4.2.4.3 confirment que les distributions conditionnelles de Y étant donné que X=15 et étant donné que X=18 sont très différentes. Par exemple, si on sait que X=18, on s’attend à ce que Y soit plus grand que lorsque X=15.
.

Tableau 4.2.2.3.

 

Pour s’assurer que la signification de l’équation 4.2.2.2 est également claire, considérons la distribution conditionnelle du couple du boulon 3 (X) étant donné que le couple du boulon 4 est de 20 (Y=20). Dans cette situation, l’équation 4.2.2.2 donne :
f_{X \mid Y}(x \mid 20)=\frac{f(x, 20)}{f_{Y}(20)}
(Les probabilités conditionnelles pour X sont les valeurs de la ligne Y=20 du tableau 4.2.1.2 divisées par la valeur marginale de Y=20.) f_{X \mid Y}(x \mid 20) est répertoriée dans le tableau 4.2.2.4.

Tableau 4.2.2.4.

L’exemple du couple des boulons présente la particularité que les distributions conditionnelles de Y étant donné les valeurs possibles pour X sont différentes. En outre, ces distributions ne sont généralement pas identiques à la distribution marginale de Y. [latex]X[/latex] fournit des informations à propos de Y, en ce sens que selon sa valeur, il existe différentes évaluations de probabilité pour Y. Comparez cette situation à l’exemple suivant.

Exemple 4.2.2.2. Échantillonnage aléatoire de deux couples du boulon 4

Supposons que les couples de 34 boulons 4 obtenus par Brenny, Christensen et Schneider et figurant dans le tableau 4.2.2.5 soient inscrits sur des bouts de papier et placés dans un chapeau. Supposons en outre que les papiers soient mélangés, qu’on en choisisse un, qu’on note le couple correspondant et qu’on replace le papier dans le chapeau. Ensuite, on mélange les papiers, on en sélectionne un autre, et on note le deuxième couple. Soient les deux variables aléatoires suivantes :
U=\text { la valeur du premier couple sélectionné }
et
V=\text { la valeur du second couple sélectionné }

Tableau 4.2.2.5.

 

On comprend intuitivement que, contrairement aux situations de X et Y de l’exemple 4.2.2.1, les variables U et V ne fournissent aucune information l’une sur l’autre. Quelle que soit la valeur de U, la distribution de fréquence relative des couples du boulon 4 dans le chapeau est correcte comme distribution de probabilité (conditionnelle) pour V, et inversement. En d’autres termes, non seulement U et V partagent la distribution marginale commune du tableau 4.2.2.6, mais il est également vrai que pour tout u et tout v, on a :
4.2.2.4                      f_{U \mid V}(u \mid v)=f_{U}(u)
et
4.2.2.5                         f_{V \mid U}(v \mid u)=f_{V}(v)
Les équations 4.2.2.4 et 4.2.2.5 indiquent que les probabilités marginales du tableau 4.2.2.6 servent également de probabilités conditionnelles. Elles précisent également comment les probabilités conjointes des U and V doivent être structurées, puisqu’en réécrivant le côté gauche de l’équation 4.2.2.4 à l’aide de l’expression 4.2.2.2, on obtient :
\frac{f(u, v)}{f_{V}(v)}=f_{U}(u)
Autrement dit :
4.2.2.6                    f(u, v)=f_{U}(u) f_{V}(v)
(La même logique appliquée à l’équation 4.2.2.5 conduit également à l’équation 4.2.2.6). L’expression 4.2.2.6 indique que les valeurs de probabilité conjointe pour U et V s’obtiennent en multipliant les probabilités marginales correspondantes. Le tableau 4.2.2.7 donne la fonction de probabilité conjointe pour U et V.

Tableau 4.2.2.6.

 

Tableau 4.2.2.7.

 

Indépendance des observations dans les études statistiques

L’exemple 4.2.2.2 suggère qu’on peut formaliser la notion intuitive que pour des variables aléatoires non liées, les distributions conditionnelles sont toutes égales aux distributions marginales correspondantes. De manière équivalente, on peut dire que les probabilités conjointes sont les produits des probabilités marginales correspondantes. Formellement, dans ce genre de cas, on parle de variables aléatoires indépendantes. La définition pour le cas à deux variables est la suivante.

DÉFINITION 4.2.2.7. Indépendance des variables aléatoires

EXPRESSION 4.2.2.7

 

Les variables aléatoires discrètes X et Y sont dites indépendantes si leur fonction de probabilité conjointe f(x, y) est le produit de leurs fonctions de probabilité marginales respectives. Autrement dit, l’indépendance signifie que
f(x, y)=f_{X}(x) f_{Y}(y) \quad \text { pour toute paire } (x, y)
Si l’équation 4.2.2.7 n’est pas valide, les variables X et Y sont dite dépendantes.
(L’équation 4.2.2.7 implique que les distributions conditionnelles sont toutes égales à leurs fonctions marginales correspondantes, de sorte que la définition correspond bien à sa motivation de « non-relation ».)
Les variables U et V de l’exemple 4.2.2.2 sont indépendantes, tandis que les variable X et Y de l’exemple 4.2.2.1 sont dépendantes. En outre, les deux distributions conjointes illustrées à la figure 4.2.1.3 donnent un exemple de distribution conjointe fortement dépendante (la première) et de distribution conjointe indépendante (la seconde) qui ont les mêmes fonctions marginales.
La notion d’indépendance est fondamentale. Les variables indépendantes simplifient énormément les calculs. L’hypothèse d’indépendance entre les observations est souvent appropriée lorsqu’on recueille des données d’ingénierie dans un contexte analytique en prenant soin de minimiser toutes les causes physiques évidentes d’effets de report susceptibles d’influencer les observations successives. De même, dans les contextes énumératifs, les échantillons aléatoires simples relativement petits (par rapport à la taille de la population) produisent des observations qui peuvent généralement être considérées comme au moins approximativement indépendantes.

Exemple 4.2.2.3.  Exemple du couple des boulons (suite)

Imaginons à nouveau qu’on a inscrit les couples de boulons sur des bouts de papier dans un chapeau. La méthode de sélection du couple décrite précédemment pour produire U and V n’est pas un échantillonnage aléatoire simple. L’échantillonnage aléatoire simple tel que défini dans la partie 1 est un échantillonnage sans remplacement, et non la méthode d’échantillonnage avec remplacement utilisée pour produire U et V. En effet, si le premier papier n’est pas remplacé avant que le second ne soit sélectionné, les probabilités du tableau 4.2.2.7 ne décrivent pas U et V. Par exemple, si aucun remplacement n’est effectué, puisqu’un seul papier est étiqueté 13 \mathrm{pi} \mathrm{lb}, il faut clairement que
f(13,13)=P[U=13 \text { et } V=13]=0
et non
f(13,13)=\frac{ 1}{(34)^2}
contrairement à ce qui est indiqué dans le tableau 4.2.2.7. En d’autres termes, si aucun remplacement n’est effectué, il est clair qu’il faut utiliser
f_{V \mid U}(13 \mid 13)=0
plutôt que la valeur
f_{V \mid U}(13 \mid 13)=f_{V}(13)=\frac{ 1}{ 34}
ce qui serait approprié si l’échantillonnage était effectué avec remplacement. L’échantillonnage aléatoire simple ne conduit pas à des observations exactement indépendantes.
Mais supposons qu’au lieu de contenir 34 papiers, le chapeau contienne 100 \fois 34 papiers, en suivant la fréquence relative du tableau 4.2.2.6. Ainsi, même si l’échantillonnage est effectué sans remplacement, les probabilités développées précédemment pour U et V (et placées dans le tableau 4.2.2.7) restent aux moins approximativement valides. Par exemple, avec 3 400 papiers et en utilisant un échantillonnage sans remplacement, on a :
f_{V \mid U}(13 \mid 13)=\frac{ 99}{3 399}
Ensuite, comme
f_{V \mid U}(v \mid u)=\frac{f(u, v)}{f_{U}(u)}
on a :
f(u, v)=f_{V \mid U}(v \mid u) f_{U}(u)
sans remplacement, le calcul
f(13,13)=\frac{99 }{3 399} \cdot \frac{ 1}{34 }
est exact. Mais ce qu’il faut retenir, c’est que
\frac{ 99}{3 399} \approx \frac{ 1}{ 34}
et par conséquent,
f(13,13) \approx \frac{ 1}{ 34} \cdot \frac{ 1}{ 34}
Pour cette situation hypothétique où la taille de la population N=3 400 est beaucoup plus grande que la taille de l’échantillon n = 2, l’indépendance est une description approximative appropriée des observations obtenues à l’aide d’un échantillonnage aléatoire simple.
Il y a d’autres termes pour décrire les variables indépendantes qui suivent la même distribution marginale.

Variables aléatoires indépendantes et identiquement distribuées

DÉFINITION 4.2.2.8.   Variables indépendantes et identiquement distribuées.

Si les variables aléatoires X_1, X_2, \ldots, X_{n} ont toutes la même distribution marginale et sont indépendantes, on dit qu’elles sont indépendantes et identiquement distribuées (iid).

 

Par exemple, la distribution conjointe de U et V donnée dans le tableau 4.2.2.7 indique que U et V sont des variables aléatoires iid.

Observations pouvant être modélisées comme des variables iid
Les exemples standard en statistiques de variables aléatoires iid sont les mesures successives d’un processus stable et les résultats d’un échantillonnage aléatoire avec
remplacement à partir d’une population unique. La question de savoir si un modèle iid est approprié dans une application statistique donnée dépend donc du fait que le mécanisme de génération de données étudié peut ou non être considéré comme conceptuellement équivalent à ces modèles.

 

Licence

Introduction aux méthodes statistiques en ingénierie© par C. Bassim et Bryan Lee. Tous droits réservés.

Partagez ce livre