3.2.5 Distribution binomiale

Les distributions de probabilités discrètes sont parfois développées à partir de l’expérience passée d’un phénomène physique particulier (comme dans l’exemple 1). Cependant, il est parfois possible de constituer un ensemble d’hypothèses mathématiques facilement manipulables et susceptibles de décrire une variété de situations réelles. Lorsqu’il est possible de les manipuler pour obtenir des distributions génériques, ces distribution peuvent être utilisées pour modéliser de nombreux phénomènes aléatoires. L’une de ces hypothèses est celle d’essais de succès et d’échec indépendants et identiques.
De nombreuses situations d’ingénierie impliquent la répétition du même scénario « succès-échec », où :
1. Il y a une probabilité constante de réussite à chaque répétition du scénario (appelée probabilité p).
2. Les répétitions sont indépendantes en ce sens que la connaissance du résultat de l’une d’entre elles ne modifie pas la probabilité des autres.
Parmi les exemples de ce type, on peut citer la vérification de conformité d’articles fabriqués consécutivement; le respect de la limite de vitesse à un poste de contrôle routier; et la mesure du travail de plusieurs personnes dans deux espaces de configuration différente afin de voir si elles travaillent mieux dans la configuration A ou la configuration B.
Dans ce contexte, il existe deux types génériques de variables aléatoires pour lesquelles il est facile de dériver des distributions de probabilité appropriées. Le premier est le cas d’un décompte des répétitions sur les n qui aboutissent à un résultat de type « succès ». Autrement dit, soit la variable :
Variables aléatoires binomiales
X = le nombre de succès dans n essais succès-échec
identiques indépendants <img src= »https://ecampusontario.pressbooks.pub/app/uploads/sites/4171/2024/03/955a246b99acabb5e7c8a45cef7cc01b.png » alt= »X[\latex] suit une distribution binomiale (n, p) .
DÉFINITION 3.2.5.1. Définition de la distribution binomiale La distribution binomiale [latex][/latex](n, p)" title="X[\latex] suit une distribution binomiale (n, p) .

DÉFINITION 3.2.5.1. Définition de la distribution binomiale La distribution binomiale [latex][/latex](n, p)" class="latex mathjax"> est une distribution de probabilité discrète avec une fonction de probabilité

f(x)= \begin{cases}\frac{n !}{x !(n-x) !} p^{x}(1-p)^{n-x} & \text { pour } x=0,1, \ldots, n \\ 0 & \text { sinon }\end{cases}
avec n un entier positif et <img src="https://ecampusontario.pressbooks.pub/app/uploads/sites/4171/2024/03/75d5ea78867a7472b54c906e926ba4c2.png" alt="0<p<1" title="0<p.
L’équation 3.2.5.1 est entièrement plausible. Elle contient un facteur de p pour chaque essai produisant un succès et un facteur de (1-p) pour chaque essai produisant un échec. Le terme n ! / x !(n-x) ! est un décompte du nombre de combinaisons dans lesquelles il est possible de voir x succès en n essais. Le nom distribution bi- nomiale trouve son origine dans le fait que les valeurs f(0), f(1), f(2), \ldots, f(n) sont les termes du développement de
(p+(1-p))^{n}
selon le théorème binomial.
Prenons le temps de tracer les histogrammes de probabilité de quelques distributions binomiales. De fait, si <img src="https://ecampusontario.pressbooks.pub/app/uploads/sites/4171/2024/03/314dc267dffc559dc055d95deb5a1e9b.png" alt="p<0,5" title="p, l’histogramme résultant est asymétrique à droite. Si image0,5" title="p>0,5" class="latex mathjax">, l’histogramme résultant est asymétrique à gauche. L’asymétrie augmente à mesure que p s’éloigne de 0,5 et diminue à mesure que n augmente. La figure 3.2.5.1 illustre quatre histogrammes de probabilité binomiale.

Figure 3.2.5.1. Quatre histogrammes de probabilité binomiale

Exemple 3.2.5.1.  Distribution binomiale et nombre d’arbres réusinables

Prenons l’exemple d’une étude de performance d’un procédé de tournage d’arbres en acier. Au début de cette étude, environ 20  \% des arbres ont été classés comme « réusinables ». Supposons que p=0,2 soit une probabilité crédible qu’un arbre soit réusinable. Supposons en outre qu’on inspecte n=10 arbres et qu’on s’intéresse à la probabilité qu’au moins deux d’entre eux soient classifiés comme réusinable.
En adoptant un modèle d’essais indépendants et identiques de réussite et d’échec pour l’état des arbres,
U=\text { nombre d’arbres réusinables dans l’échantillon de } 10
est une variable aléatoire binomiale avec n=10 et p=0,2. Donc :
\begin{aligned}P[\text { au moins deux arbres réusinables] } & =P[U \geq 2] \\& =f(2)+f(3)+\cdots+f(10) \\& =1-(f(0)+f(1)) \\& =1-\left(\frac{10 !}{0 ! 10 !}(0,2)^{0}(0,8)^{10 }+\frac{10 !}{1 ! 9 !}(0,2)^{1 }(0,8)^{9 }\right) \\&=0,62\end{aligned}\begin{aligned}P[\text { au moins deux arbres réusinables] } & =P[U \geq 2] \\& =f(2)+f(3)+\cdots+f(10) \\& =1-(f(0)+f(1)) \\& =1-\left(\frac{10 !}{0 ! 10 !}(0,2)^{0}(0,8)^{10 }+\frac{10 !}{1 ! 9 !}(0,2)^{1 }(0,8)^{9 }\right) \\&=0,62\end{aligned}
(Ici, nous avons employé une astuce très utile et couramment utilisée qui consiste à éviter de calculer neuf fois la fonction de probabilité binomiale en reconnaissant que la somme des f(u)doit être égale à 1.)
La probabilité 0,62 est seulement aussi fiable que les hypothèses sous-jacentes. Si le modèle d’essais succès/échec identiques et indépendants ne convient pas pour décrire la réalité physique, la valeur de 0,62 est mathématiquement correcte, mais elle n’est peut-être pas représentative de la réalité. Par exemple, disons qu’en raison de l’usure de l’outil, il est courant de voir 40 arbres conformes aux spécifications, puis 10 arbres réusinables, puis après un changement d’outil, 40 arbres conformes aux spécifications, et ainsi de suite. Dans ce cas, la distribution binomiale serait une très mauvaise description de la situation de U, et le nombre 0,62 est alors peu pertinent. (L’hypothèse de l’indépendance des essais serait inappropriée dans cette situation.)
Distribution binomiale et échantillonnage aléatoire simple
Il y a un contexte important dans lequel le modèle d’essais succès/échec indépendants et identiques n’est pas exactement approprié, mais pour lequel la distribution binomiale peut encore convenir à des fins pratiques : la description des résultats d’un échantillonnage aléatoire simple à partir d’une population dichotomique. Supposons une population de taille N qui contient une fraction p d’objets de type A et une fraction (1-p) d’objets de type B. Si on sélectionne un échantillon aléatoire simple de n articles, alors la variable
X=\text { le nombre d’éléments de type A dans l’échantillon }
n’est pas, à strictement parler, une variable aléatoire binomiale. Mais si n est petit par rapport à N (disons, moins de 10  \% ) et que p n’est pas trop extrême (c’est-à-dire, n’est pas proche de 0 ou 1), X suit approximativement une distribution binomiale (n, p).

Exemple 3.2.5.2. Échantillonnage aléatoire simple à partir d’un lot de pastilles d’hexamine

Lors d’une expérience sur une machine à granuler, Greiner, Grimm, Larson et Lukomski ont trouvé une combinaison de réglages de la machine qui leur a permis de produire 66 pastilles conformes sur un lot de 100 pastilles. Considérons ce lot de 100 pastilles comme une population d’intérêt et sélectionnons un échantillon aléatoire simple de taille n=2.
Si l’on définit la variable aléatoire
V=\text { le nombre de pastilles conformes dans l’échantillon de taille } 2
la distribution de probabilité la plus naturelle pour V est obtenue comme suit. Les valeurs possibles pour V sont 0,1 et 2.
\begin{aligned}f(0)= & P[V=0] \\= & P[\text {la première pastille sélectionnée est non conforme et } \\& \text { la deuxième pastille est également non conforme}] \\f(2)= & P[V=2] \\= & P[\text {la première pastille sélectionnée est conforme et } \\& \text { la deuxième pastille sélectionnée est également conforme}] \\f(1)= & 1-(f(0)+f(2))\end{aligned}
Ensuite, on fait le raisonnement suivant :« À long terme, la première sélection produira une pastille non conforme environ 34 fois sur 100. Si on considère uniquement les cas où cela se produit, à long terme, la sélection suivante produira également une pastille non conforme environ 33 fois sur 99 ». Cela revient à dire que f(0) vaut
f(0)=\frac{34 }{100 } \cdot \frac{33 }{99 }=0,1133
De la même façon,
f(2)=\frac{66 }{100 } \cdot \frac{65 }{99 }=0,4333
et par conséquent
f(1)=1-(0,1133+0,4333)=1-0,5467=0,4533
Manifestement, V ne peut être considérée comme le résultat d’essais parfaitement indépendants. Par exemple, le fait de savoir que la première pastille sélectionnée était conforme ferait passer la probabilité que la deuxième soit également conforme de \frac{66 }{100 } à \frac{65 }{99 }. Néanmoins, à des fins pratiques, V peut être considérée comme essentiellement binomiale avec n=2 et p=0,66. Pour s’en convaincre, il suffit de noter que
\begin{aligned}& \frac{2 !}{0 ! 2 !}(0,34)^{2 }(0,66)^{0}=0,1156 \approx f(0) \\& \frac{2 !}{1 ! 1 !}(0,34)^{1 }(0,66)^{1 }=0,4488 \approx f(1) \\& \frac{2 !}{2 ! 0 !}(0,34)^{0}(0,66)^{2 }=0,4356 \approx f(2)\end{aligned}
Comme n est petit par rapport à N et que p n’est pas trop extrême, la distribution binomiale est une description correcte d’une variable issue d’un échantillonnage aléatoire simple.
Moyenne et variance d’une distribution binomiale(n, p)

Le calcul de la moyenne et de la variance des variables aléatoires binomiales est vraiment simplifié par le fait que lorsque les formules présentées dans ce module sont utilisées avec l’expression des probabilités binomiales de l’équation 3.2.5.1, on obtient des formules simples. Soit X une variable nominale binomiale (n, p) :

DÉFINITION 3.2.5.2. Moyenne d’une distribution binomiale (n,p)

\mu=E(X)=\sum_{x=0}^{n} x \frac{n !}{x !(n-x) !} p^{x}(1-p)^{n-x}=n p

De plus,

DÉFINITION 3.2.5.3. Variance d’une distribution binomiale (n,p)

\sigma^{2 }=\operatorname{Var}(X)=\sum_{x=0}^{n}(x-n p)^{2 } \frac{n !}{x !(n-x) !} p^{x}(1-p)^{n-x}=n p(1-p)

Exemple 3.2.5.3. Usinage d’arbres en acier.

En revenant à l’usinage des arbres en acier, supposons qu’une distribution binomiale avec n=10 et p=0,2 décrit adéquatement la variable
U=\text { nombre d’arbres réusinables dans l’échantillon de } 10
En utilisant les formules 3.2.5.2 et 3.2.5.3,
\begin{aligned}E(U) & =(10)(0,2)=2 \text { arbres } \\\sqrt{\operatorname{Var}(U)} & =\sqrt{10(0,2)(0,8)}=1,26 \text { arbres }\end{aligned}

Licence

Introduction aux méthodes statistiques en ingénierie© par C. Bassim et Bryan Lee. Tous droits réservés.

Partagez ce livre