3.2.6 Distribution de Poisson

Il est souvent important de noter le nombre total d’occurrences d’un phénomène relativement rare dans un intervalle de temps ou d’espace où il peut y avoir plusieurs occurrences. Par exemple, une caisse de tuiles de sol peut présenter un grand nombre d’imperfections; dans un intervalle d’une seconde, il y a potentiellement un grand nombre de messages qui peuvent arriver dans un centre de référence en vue d’être réacheminés; un échantillon de verre de 1 cc contient potentiellement un grand nombre d’imperfections.
Il faut donc des distributions de probabilités pour décrire le décompte aléatoire du nombre d’occurrences d’un phénomène relativement rare dans un intervalle de temps ou d’espace donné. Dans ce genre de situation, la distribution théorique la plus fréquemment utilisée est de loin la distribution de Poisson.

DÉFINITION 3.2.6.1. Distribution de Poisson (\lambda)

 

La distribution de Poisson (\lambda) est une distribution de probabilité discrète avec la fonction de probabilité
f(x)= \begin{cases}\frac{e^{-\lambda} \lambda^{x}}{x !} & \text { pour } x=0,1,2, \ldots \\ 0 & \text { sinon }\end{cases}
image0″ title= »\lambda>0″ class= »latex mathjax »>.
La forme de l’équation 3.2.6.1 peut sembler un peu rébarbative au premier abord, mais il s’agit d’un modèle qui a des origines mathématiques raisonnables, qui est gérable et qui s’est révélé empiriquement utile dans de nombreux contextes d’« événements rares ». Une façon d’arriver à l’équation (3.2.6.1) est de penser à un très grand nombre d’essais indépendants (possibilités d’occurrence), où la probabilité de succès (occurrence) lors d’un seul essai est très faible et où le produit du nombre d’essais et de la probabilité de succès est \lambda. On obtient alors la distribution binomiale \left(n, \frac{\lambda}{n}\right). En fait, si n est grand, la fonction de probabilité binomiale \left(n, \frac{\lambda}{n}\right) se rapproche de celle donnée dans la définition 3.2.6.1. On peut donc considérer que la distribution de Poisson pour les dénombrements résulte d’un mécanisme qui présente de nombreuses possibilités d’occurrences (à très faible probabilité) ou de non-occurrences indépendantes dans un intervalle de temps ou d’espace donné.
La distribution de Poisson est asymétrique à droite avec x= 0,1,2, \ldots, et l’histogramme de probabilité atteint un sommet près de\lambda. La figure 3.2.6.1 présente deux histogrammes de probabilité de Poisson différents.

Figure 2.3.6.1. Deux histogrammes de probabilité de Poisson.
\lambda est à la fois la moyenne et la variance de la distribution de Poisson (\lambda). Autrement dit, si X suit une distribution de Poisson (\lambda), alors

 

DÉFINITION 3.2.6.2. Moyenne de la distribution de Poisson (\lambda)

\mu=E(X)=\sum_{x=0}^{\infty} x \frac{e^{-\lambda} \lambda^{x}}{x !}=\lambda

et

DÉFINITION 3.2.6.3. Variance de la distribution de Poisson (\lambda)

\operatorname{Var} X=\sum_{x=0}^{\infty}(x-\lambda)^ \frac{e^{-\lambda} \lambda^{x}}{x !}=\lambda

La définition 3.2.6.2 est utile pour déterminer quelle distribution de Poisson pourrait être utile pour décrire une situation d’« événements rares » donnée.

Exemple 3.2.6.1. Distribution de Poisson et décomptes de particules \alpha

En 1910, Rutherford et Geiger ont publié dans le Philosophical Magazine un célèbre ensemble de données décrivant le nombre de particules \alpha émises par une petite barre de polonium et entrant en collision avec un écran placé près de la barre au cours de 2 608 périodes de 8 minutes chacune. La distribution des fréquences relatives de Rutherford et Geiger a une moyenne de 3,87 et une forme remarquablement similaire à celle de la distribution de probabilité de Poisson avec une moyenne de \lambda=3,87.
Si on reproduit l’expérience de Rutherford/Geiger, on peu raisonnablement décrire
\begin{aligned}S= & \text { le nombre de particules} \alpha \text { heurtant l’écran dans une période } \\& \text { de 8 minutes }\end{aligned}
par la fonction de probabilité
f(s)= \begin{cases}\frac{e^{-3.87}(3.87)^{s}}{s !} & \text { pour } s=0,1,2, \ldots \\ 0 & \text { sinon }\end{cases}
En utilisant un tel modèle, on obtient (par exemple)
P [au moins 4 particules sont enregistrées]
=P[S \geq 4]
=f(4)+f(5)+f(6)+\cdots
=1-(f(0)+f(1)+f(2)+f(3))
=1-\left(\frac{e^{-3,87}(3,87)^{0}}{0 !}+\frac{e^{-3,87}(3,87)^}{1 !}+\frac{e^{-3,87}(3,87)^}{2 !}+\frac{e^{-3,87}(3,87)^}{3 !}\right)
=0,54

Exemple 3.2.6.2. Entrées dans la bibliothèque de l’université

Stork, Wohlsdorf et McArthur ont recueilli des données sur le nombre d’étudiant.e.s entrant dans la bibliothèque de l’ISU à différentes périodes au cours d’une semaine. Leurs données indiquent qu’entre 12 h 00 et 12 h 10 du lundi au mercredi, une moyenne d’environ 125 étudiant.e.s sont entré.e.s. Soit
\begin{aligned}& M=\text { le nombre d’étudiant.e.s entrant dans la bibliothèque de l’ISU entre} \\& \text { 12 h 00 et 12 h 01 mardi prochain }\end{aligned}
Si on utilise une distribution de Poisson pour décrire M, \lambda semble être
\lambda=\frac{125 \text { étudiant.e.s }}{10 \text { minutes }}(1 \text { minute })=12,5 \text { étudiant.e.s }
Ainsi,
\begin{aligned}E(M) & =\lambda=12,5 \text { étudiant.e.s } \\\sqrt{\operatorname{Var}(M)} & =\sqrt{\lambda}=\sqrt{12,5 }=3,54 \text { étudiant.e.s }\end{aligned}
La probabilité que, par exemple, entre 10 et 15 étudiant.e.s (inclusivement) arrivent à la bibliothèque entre 12 h 00 et 12 h 01 serait évaluée comme suit :
\begin{aligned}P[10 \leq M \leq 15]= & f(10)+f(11)+f(12)+f(13)+f(14)+f(15) \\= & \frac{e^{-12,5}(12,5)^}{10 !}+\frac{e^{-12,5}(12,5)^}{11 !}+\frac{e^{-12,5}(12,5)^}{12 !} \\& +\frac{e^{-12,5}(12,5)^}{13 !}+\frac{e^{-12,5}(12,5)^}{14 !}+\frac{e^{-12,5}(12,5)^}{15 !} \\= & .60\end{aligned}

Licence

Introduction aux méthodes statistiques en ingénierie© par C. Bassim et Bryan Lee. Tous droits réservés.

Partagez ce livre