Distributions conditionnelles et indépendance des variables aléatoires discrètes
Lorsqu’on travaille avec plusieurs variables aléatoires, il est souvent utile de réfléchir à ce que l’on attend de l’une des variables compte tenu des valeurs prises par toutes les autres. Par exemple, dans l’exercice du couple de serrage du boulon
, un technicien qui vient de desserrer le boulon 3 et qui a mesuré le couple à la valeur
devrait avoir des attentes pour le couple du boulon 4
quelque peu différentes, à la lumière de la distribution marginale du tableau 4.2.1.3. Après tout, si on reprend les données du tableau 4.2.2.1, la distribution de la fréquence relative des couples des boulons 4 pour les composants dont le couple du boulon 3 est de
est similaire aux valeurs du tableau 4.2.2.1. D’une certaine manière, le fait de savoir que
devrait modifier la distribution de probabilité de
pour que la distribution de fréquence relative corresponde au tableau 4.2.2.1 plutôt qu’à la distribution marginale du tableau 4.1.1.3.

Tableau 4.2.2.1
La théorie des probabilités tient compte de cette notion de « distribution d’une variable lorsqu’on connaît les valeurs des autres » à travers le concept de distribution conditionnelle. La version à deux variables est définie ci-après.
DÉFINITION 4.2.2.1. Fonction de probabilité conditionnelle de X étant donné que Y=y
EXPRESSION 4.2.2.1
Pour des variables aléatoires discrètes

et

avec une fonction de probabilité conjointe

, la fonction de probabilité conditionnelle de

étant donné que

est la fonction de

suivante :
La fonction de probabilité conditionnelle de

étant donné que

est la fonction de

suivante :
[latex]f_{Y \mid X}(y \mid x)=\frac{f(x, y)}{\sum_{y} f(x, y)[/latex]
En comparant les définitions 4.2.1.1 et 4.2.2.1, on obtient :
Fonction de probabilité conditionnelle de X étant donné que Y=y 4.2.2.2
et
Fonction de probabilité conditionnelle pour Y étant donné que X=x 4.2.2.3
Calcul de distributions conditionnelles à partir d’une fonction de probabilité conjointe
Les équations 4.2.2.2 et 4.2.2.3 sont parfaitement logiques. La première indique qu’à partir d’une fonction
répertoriée dans un tableau à deux entrées et en ne considérant que la ligne
, la distribution conditionnelle appropriée pour
est indiquée par les probabilités de cette ligne (les valeurs de
), qu’on divise par leur somme
) pour les renormaliser (faire en sorte qu’elles totalisent 1). De même, l’équation 4.2.2.3 indique que si l’on considère uniquement la colonne
, la distribution conditionnelle appropriée pour
est donnée par les probabilités de cette colonne divisées par leur somme.
Pour illustrer l’utilisation des équations 4.2.2.2 et 4.2.2.3, considérons quelques-unes des distributions conditionnelles associées à la distribution conjointe des couples des boulons 3 et 4, en commençant par la distribution conditionnelle de

étant donné que

.
À partir de l’équation 4.2.2.3,
En se référant au tableau 4.2.1.2, la probabilité marginale associée à

est

. Ainsi, en divisant les valeurs dans la colonne

de ce tableau par

, on obtient la distribution conditionnelle pour

, qui est présentée dans le tableau 4.2.2.2. Si l’on compare ce résultat au tableau 4.2.1.4, on constate que l’équation 4.2.2.3 produit une distribution conditionnelle conforme à l’intuition.

Tableau 4.2.2.2
Considérons ensuite

f_{Y \mid X}(y \mid 18) :
Le tableau 4.2.1.2 nous donne la distribution conditionnelle de

étant donné que

, présentée dans le tableau 4.2.2.3. Les tableaux 4.2.2.2 et 4.2.4.3 confirment que les distributions conditionnelles de

étant donné que

et étant donné que

sont très différentes. Par exemple, si on sait que

, on s’attend à ce que

soit plus grand que lorsque

.
.

Tableau 4.2.2.3.
Pour s’assurer que la signification de l’équation 4.2.2.2 est également claire, considérons la distribution conditionnelle du couple du boulon 3

étant donné que le couple du boulon 4 est de 20

. Dans cette situation, l’équation 4.2.2.2 donne :
(Les probabilités conditionnelles pour

sont les valeurs de la ligne

du tableau 4.2.1.2 divisées par la valeur marginale de

.)

est répertoriée dans le tableau 4.2.2.4.

Tableau 4.2.2.4.
L’exemple du couple des boulons présente la particularité que les distributions conditionnelles de
étant donné les valeurs possibles pour
sont différentes. En outre, ces distributions ne sont généralement pas identiques à la distribution marginale de
. [latex]X[/latex] fournit des informations à propos de
, en ce sens que selon sa valeur, il existe différentes évaluations de probabilité pour
. Comparez cette situation à l’exemple suivant.
Supposons que les couples de 34 boulons 4 obtenus par Brenny, Christensen et Schneider et figurant dans le tableau 4.2.2.5 soient inscrits sur des bouts de papier et placés dans un chapeau. Supposons en outre que les papiers soient mélangés, qu’on en choisisse un, qu’on note le couple correspondant et qu’on replace le papier dans le chapeau. Ensuite, on mélange les papiers, on en sélectionne un autre, et on note le deuxième couple. Soient les deux variables aléatoires suivantes :
et

Tableau 4.2.2.5.
On comprend intuitivement que, contrairement aux situations de

et

de l’exemple 4.2.2.1, les variables

et

ne fournissent aucune information l’une sur l’autre. Quelle que soit la valeur de

, la distribution de fréquence relative des couples du boulon 4 dans le chapeau est correcte comme distribution de probabilité (conditionnelle) pour

, et inversement. En d’autres termes, non seulement

et

partagent la distribution marginale commune du tableau 4.2.2.6, mais il est également vrai que pour tout

et tout

, on a :
4.2.2.4 
et
4.2.2.5 
Les équations 4.2.2.4 et 4.2.2.5 indiquent que les probabilités marginales du tableau 4.2.2.6 servent également de probabilités conditionnelles. Elles précisent également comment les probabilités conjointes des

and

doivent être structurées, puisqu’en réécrivant le côté gauche de l’équation 4.2.2.4 à l’aide de l’expression 4.2.2.2, on obtient :
Autrement dit :
4.2.2.6 
(La même logique appliquée à l’équation 4.2.2.5 conduit également à l’équation 4.2.2.6). L’expression 4.2.2.6 indique que les valeurs de probabilité conjointe pour

et

s’obtiennent en multipliant les probabilités marginales correspondantes. Le tableau 4.2.2.7 donne la fonction de probabilité conjointe pour

et

.

Tableau 4.2.2.6.

Tableau 4.2.2.7.
Indépendance des observations dans les études statistiques
L’exemple 4.2.2.2 suggère qu’on peut formaliser la notion intuitive que pour des variables aléatoires non liées, les distributions conditionnelles sont toutes égales aux distributions marginales correspondantes. De manière équivalente, on peut dire que les probabilités conjointes sont les produits des probabilités marginales correspondantes. Formellement, dans ce genre de cas, on parle de variables aléatoires indépendantes. La définition pour le cas à deux variables est la suivante.
DÉFINITION 4.2.2.7. Indépendance des variables aléatoires
EXPRESSION 4.2.2.7
Les variables aléatoires discrètes

et

sont dites indépendantes si leur fonction de probabilité conjointe

est le produit de leurs fonctions de probabilité marginales respectives. Autrement dit, l’indépendance signifie que
Si l’équation 4.2.2.7 n’est pas valide, les variables

et

sont dite dépendantes.
(L’équation 4.2.2.7 implique que les distributions conditionnelles sont toutes égales à leurs fonctions marginales correspondantes, de sorte que la définition correspond bien à sa motivation de « non-relation ».)
Les variables

et

de l’exemple 4.2.2.2 sont indépendantes, tandis que les variable

et

de l’exemple 4.2.2.1 sont dépendantes. En outre, les deux distributions conjointes illustrées à la figure 4.2.1.3 donnent un exemple de distribution conjointe fortement dépendante (la première) et de distribution conjointe indépendante (la seconde) qui ont les mêmes fonctions marginales.
La notion d’indépendance est fondamentale. Les variables indépendantes simplifient énormément les calculs. L’hypothèse d’indépendance entre les observations est souvent appropriée lorsqu’on recueille des données d’ingénierie dans un contexte analytique en prenant soin de minimiser toutes les causes physiques évidentes d’effets de report susceptibles d’influencer les observations successives. De même, dans les contextes énumératifs, les échantillons aléatoires simples relativement petits (par rapport à la taille de la population) produisent des observations qui peuvent généralement être considérées comme au moins approximativement indépendantes.
Imaginons à nouveau qu’on a inscrit les couples de boulons sur des bouts de papier dans un chapeau. La méthode de sélection du couple décrite précédemment pour produire

and

n’est pas un échantillonnage aléatoire simple. L’échantillonnage aléatoire simple tel que défini dans la partie 1 est un échantillonnage sans remplacement, et non la méthode d’échantillonnage avec remplacement utilisée pour produire

et

. En effet, si le premier papier n’est pas remplacé avant que le second ne soit sélectionné, les probabilités du tableau 4.2.2.7 ne décrivent pas

et

. Par exemple, si aucun remplacement n’est effectué, puisqu’un seul papier est étiqueté

, il faut clairement que
et non
contrairement à ce qui est indiqué dans le tableau 4.2.2.7. En d’autres termes, si aucun remplacement n’est effectué, il est clair qu’il faut utiliser
plutôt que la valeur
ce qui serait approprié si l’échantillonnage était effectué avec remplacement. L’échantillonnage aléatoire simple ne conduit pas à des observations exactement indépendantes.
Mais supposons qu’au lieu de contenir 34 papiers, le chapeau contienne

papiers, en suivant la fréquence relative du tableau 4.2.2.6. Ainsi, même si l’échantillonnage est effectué sans remplacement, les probabilités développées précédemment pour

et

(et placées dans le tableau 4.2.2.7) restent aux moins approximativement valides. Par exemple, avec 3 400 papiers et en utilisant un échantillonnage sans remplacement, on a :
Ensuite, comme
on a :
sans remplacement, le calcul
est exact. Mais ce qu’il faut retenir, c’est que
et par conséquent,
Pour cette situation hypothétique où la taille de la population

est beaucoup plus grande que la taille de l’échantillon

, l’indépendance est une description approximative appropriée des observations obtenues à l’aide d’un échantillonnage aléatoire simple.
Il y a d’autres termes pour décrire les variables indépendantes qui suivent la même distribution marginale.
Variables aléatoires indépendantes et identiquement distribuées
DÉFINITION 4.2.2.8. Variables indépendantes et identiquement distribuées.
Si les variables aléatoires
ont toutes la même distribution marginale et sont indépendantes, on dit qu’elles sont indépendantes et identiquement distribuées (iid).
Par exemple, la distribution conjointe de
et
donnée dans le tableau 4.2.2.7 indique que
et
sont des variables aléatoires iid.
Observations pouvant être modélisées comme des variables iid
Les exemples standard en statistiques de variables aléatoires iid sont les mesures successives d’un processus stable et les résultats d’un échantillonnage aléatoire avec
remplacement à partir d’une population unique. La question de savoir si un modèle iid est approprié dans une application statistique donnée dépend donc du fait que le mécanisme de génération de données étudié peut ou non être considéré comme conceptuellement équivalent à ces modèles.