@ccueil Colles

Arbres et formules classiques de probabilités

Y. Morel




Un arbre de probabilités est un outil efficace pour traiter des problèmes de probabilités ou de décision. Cette efficacité tient notamment au fait que ces arbres, en respectant quatre simples règles, contiennent de nombreuses formules classiques et usuelles de probabilité.
Le but de cet article est de faire le lien entre les arbres de probabilités et leurs quelques quatre règles et des propriétés très classiques de probabilité: probabilité conditionnelle, formule de Bayes, formules des probabilités totales et des probabilités composées.

Arbre de probabilités

Introduction et exemples


Un arbre de probabilité est un arbre descriptif des issues d'une expérience aléatoire, chaque issue étant pondérée par une probabilité.
Un tel arbre est un outil très efficace pour décrire, modéliser et enfin résoudre bon nombre de problèmes liés à des questions de probabilités.

Exemple 1:
On lance un dé à six faces, numérotées de 1 à 6, bien équilibré.
La règle du jeu est la suivante: si le chiffre obtenu est inférieur ou égal à 2, on le relance une deuxième fois et on ajoute alors le nouveau chiffre obtenu au premier; si le chiffre obtenu est supérieur ou égal à 3, on conserve ce résultat.

Quelle est la probabilité d'obtenir un score de 6 ?

Correction: On peut représenter la situation avec un arbre:
\[\psset{unit=1.2cm,arrowsize=8pt}
\begin{pspicture}(-.1,-5)(6.8,6.5)
  \rput(1,6.3){$1^{\mbox{\scriptsize{er}}}$ lancer}
  %
  \psline(0,0)(2,4)\rput(2.2,4){1}\rput(1,2.6){\scriptsize$1/6$}
  \psline(0,0)(2,1)\rput(2.2,1){2}\rput(1.3,.85){\scriptsize$1/6$}
  \psline(0,0)(2,-1.5)\rput(2.2,-1.5){3}\rput(1.5,-.9){\scriptsize$1/6$}
  \psline(0,0)(2,-2.5)\rput(2.2,-2.5){4}\rput(1.75,-1.9){\scriptsize$1/6$}
  \psline(0,0)(2,-3.5)\rput(2.2,-3.5){5}\rput(1.8,-2.8){\scriptsize$1/6$}
  \psline(0,0)(2,-4.5)\rput(2.2,-4.5){6}\rput(1.3,-3.7){\scriptsize$1/6$}
  %
  \rput(3.5,6.3){$2^{\mbox{\scriptsize{\`eme}}}$ lancer}
  \rput(3.5,5.8){(\'eventuel)}
  \psline(2.4,4)(4,5)\rput(4.2,5){1}\rput(3.7,5){\scriptsize$1/6$}
  \psline(2.4,4)(4,4.5)\rput(4.2,4.5){2}\rput(3.7,4.5){\scriptsize$1/6$}
  \psline(2.4,4)(4,4)\rput(4.2,4){3}\rput(3.7,4.1){\scriptsize$1/6$}
  \psline(2.4,4)(4,3.5)\rput(4.2,3.5){4}\rput(3.7,3.7){\scriptsize$1/6$}
  \psline(2.4,4)(4,3)\rput(4.2,3){5}\rput(3.75,3.3){\scriptsize$1/6$}
  \psline(2.4,4)(4,2.5)\rput(4.2,2.5){6}\rput(3.85,2.85){\scriptsize$1/6$}
  %
  \psline(2.4,1)(4,2)\rput(4.2,2){1}\rput(3.7,2){\scriptsize$1/6$}
  \psline(2.4,1)(4,1.5)\rput(4.2,1.5){2}\rput(3.7,1.5){\scriptsize$1/6$}
  \psline(2.4,1)(4,1)\rput(4.2,1){3}\rput(3.7,1.05){\scriptsize$1/6$}
  \psline(2.4,1)(4,.5)\rput(4.2,.5){4}\rput(3.7,.7){\scriptsize$1/6$}
  \psline(2.4,1)(4,0)\rput(4.2,0){5}\rput(3.75,.3){\scriptsize$1/6$}
  \psline(2.4,1)(4,-.5)\rput(4.2,-.5){6}\rput(3.8,-.15){\scriptsize$1/6$}
  %
  \rput(6.,6.3){Score}
  \psline{->}(4.4,5.0)(6,5.0)\rput(6.2,5.0){2}
  \psline{->}(4.4,4.5)(6,4.5)\rput(6.2,4.5){3}
  \psline{->}(4.4,4.0)(6,4.0)\rput(6.2,4.0){4}
  \psline{->}(4.4,3.5)(6,3.5)\rput(6.2,3.5){5}
  \psline{->}(4.4,3.0)(6,3.0)\rput(6.2,3.0){6}\pscircle[linecolor=red,linewidth=1.3pt](6.2,3.02){.28}
  \psline{->}(4.4,2.5)(6,2.5)\rput(6.2,2.5){7}
  \psline{->}(4.4,2.0)(6,2.0)\rput(6.2,2.0){3}
  \psline{->}(4.4,1.5)(6,1.5)\rput(6.2,1.5){4}
  \psline{->}(4.4,1.0)(6,1.0)\rput(6.2,1.0){5}
  \psline{->}(4.4,0.5)(6,0.5)\rput(6.2,0.5){6}\pscircle[linecolor=red,linewidth=1.3pt](6.2,.52){.28}
  \psline{->}(4.4,0.0)(6,0.0)\rput(6.2,0.0){7}
  \psline{->}(4.4,-0.5)(6,-0.5)\rput(6.2,-0.5){8}
  \psline{->}(2.4,-1.5)(6,-1.5)\rput(6.2,-1.5){3}
  \psline{->}(2.4,-2.5)(6,-2.5)\rput(6.2,-2.5){4}
  \psline{->}(2.4,-3.5)(6,-3.5)\rput(6.2,-3.5){5}
  \psline{->}(2.4,-4.5)(6,-4.5)\rput(6.2,-4.5){6}\pscircle[linecolor=red,linewidth=1.3pt](6.2,-3.48){.28}
\end{pspicture}\]


Chaque tirage à une probabilité $p=\dfrac16$ (c'est la règle 1 de construction d'un arbre).
Obtenir 6 peut se faire de trois manières (trois chemins dans cet arbre):
  • Obtenir un 1 puis un 5, de probabilité $p=\dfrac16\tm\dfrac16=\dfrac1{6^2}$  (règle 2)
  • Obtenir un 2 puis un 6, de probabilité $p=\dfrac16\tm\dfrac16=\dfrac1{6^2}$  (règle 2)
  • Obtenir un 6 directement, de probabilité $p=\dfrac16$.  (règle 2)

La probabilité de l'événement "obtenir 6" est donc:  (règle 4 ou formule des probabilités totales)
\[P=\dfrac1{6^2}+\dfrac1{6^2}+\dfrac16=\dfrac8{36}=\dfrac29\]




Exemple 2: Une entreprise produit des composants dans deux usines. La première fournit 70% de la production, la deuxième le reste. Si la première usine produit plus que la deuxième, sa production est par contre un peu moins efficace: 4% des composants qu'elle produit son défectueux contre 3% pour la deuxième usine.
Quelle est la proportion de pièces défectueuses dans la production totale ?

Correction:Correction: Cet exercice est un simple exercice de proportions/pourcentages qui peut se résoudre sans arbre ni formule complexe de probabilité: il y a 4% des 70% de composants défectueux pour la première usine, soit 4%x70%=2,8%, et 3% des 30% restants pour la deuxième, soit 3%x30%=0,9%.
Au total, il y 2,8%+0,9%=3,7% de composants défectueux produits.

La description, puis le calcul, est néanmoins pratique et efficace avec un arbre pondéré, et permet d'inscrire ce problème simple dans une classe bien plus large de problèmes.
On note l'événement $D$: "le composant est défectueux", et on peut alors dresser l'arbre pondéré
\[\psset{unit=1cm}\begin{pspicture}(0,-3)(5,3)
  \psline(2,1.5)(0,0)(2,-1.5)
  \rput[l](2.12,1.5){usine 1}\rput(.7,1){70\%}
  \rput[l](2.12,-1.5){usine 2}\rput(.7,-1.1){30\%}
  \psline(4.5,2.5)(3.5,1.5)(4.5,.5)
    \rput(4.7,2.5){$D$}\rput(3.8,2.3){4\%}
    \rput(4.7,.5){$\overline{D}$}\rput(3.8,.5){96\%}
  \psline(4.5,-2.5)(3.5,-1.5)(4.5,-.5)
    \rput(4.7,-.5){$D$}\rput(3.8,-.7){3\%}
    \rput(4.7,-2.5){$\overline{D}$}\rput(3.8,-2.5){97\%}
\end{pspicture}\]

La proportion de pièces défectueuses est alors
\[p=70\%\tm4\%+30\%\tm3\%=0,037=3,7\%\]



Les arbres sont abondamment utilisés en probabilité. De nombreuses formules classiques de probabilités se font de plus en plus rares dans les cours de probabilité, sans avoir disparues pour autant: un bon nombre de ces formules s'utilisent "naturellement" via un arbre de probabilités, sans même avoir besoin de les nommer.

Arbre général de probabilités



\[\psset{xunit=1.5cm,yunit=1.7cm}
  \begin{pspicture}(-.25,-4.6)(6.6,1.8)
  \rput(-.15,0){$\Omega$}
  \psline(0,0)(1.5,1)\rput(1.7,1){$A$}\rput(0.7,0.6){$p_1$}
  \psline(2,1)(4,1.5)\rput(4.2,1.5){$D$}\rput(3.2,1.4){$p_4$}
  \psline(2,1)(4,0.5)\rput(4.2,0.5){$E$}\rput(3.2,0.55){$p_5$}
  %
  \psline(0,0)(1.5,-1)\rput(1.7,-1){$B$}
  \rput(.9,-0.38){$p_2$}
  \psline(2,-1)(4,-0.5)\rput(4.2,-0.5){$F$}
   \psline(6,0)(4.5,-.5)(6,-.5)
      \rput(6.2,0){$I$}\rput(5.4,-.08){$p_{11}$}
      \rput(6.2,-.5){$J$}\rput(5.4,-.64){$p_{12}$}
   \psline[linestyle=dotted](6,-1.2)(4.5,-.5)(6,-1)
   %
  \rput(3.2,-0.5){$p_6$}
  \psline(2,-1)(4,-1)\rput(4.2,-1){$G$}\rput(3.2,-0.9){$p_7$}
  \psline(2,-1)(4,-1.5)\rput(4.2,-1.5){$H$}\rput(3.2,-1.5){$p_8$}
    \psline[linestyle=dotted](6,-1.5)(4.5,-1.5)(6,-1.8)(4.5,-1.5)(6,-2)
  %
  \psline(0,0)(1.5,-3.5)\rput(1.7,-3.5){$C$}
  \psline(4,-3)(2,-3.5)(4,-3.5)\rput(0.6,-1.8){$p_3$}
  \rput(4.2,-3){$\dots$}\rput(3.2,-3.05){$p_9$}
  \rput(4.2,-3.5){$E$}\rput(3.2,-3.4){$p_{10}$}
  \psline[linestyle=dotted](4,-4)(2,-3.5)(4,-4.5)
  \psline[linestyle=dotted](6,-3.5)(4.5,-3.5)(6,-4)(4.5,-3.5)(6,-3)
\end{pspicture}\]



Règles de construction et de calculs

Règle 1:
La somme des probabilités des branches issues d'un même nœud est égale à 1.

Par exemple ici, $p_1+p_2+p_3=1$, $p_4+P_5=1$, $p_{11}+p_{12}=1$, …

Règle 2:
Un chemin décrit l'intersection des événements qui le composent. Sa probabilité est le produit des probabilités.

Par exemple ici,
  • Le chemin menant de $\Omega$ à $D$ décrit l'événement $A\cap D$, sa probabilité est $P\lp A\cap D\rp=p_1\tm p_4$.
  • Le chemin menant de $\Omega$ à $I$ décrit l'événement $B\cap F\cap I$, sa probabilité est $P\lp B\cap F\cap I\rp=p_2\tm p_6\tm p_{11}$.

Règle 3:
Sur chaque branche, la probabilité indiquée est la probabilité conditionnelle de l'événement d'arrivé (à droite) sachant celui de départ (à gauche).

Par exemple ici, $p_4=P_A(D)$, $p_6=P_B(F)$, $p_{11}=P_{B\cap F}(I)$, et $p_1=P_\Omega(A)=P(A)$

Règle 4:
La probabilité d'un événement est la somme des probabilités des chemins qui mènent à cet événement.

Par exemple ici, l'événement $E$ se trouvent sur deux chemins et on a $P(E)=P\lp A\cap D\rp+P\lp C\cap D\rp=p_1\tm p_4+p_3\tm p_9$



Ces règles contiennent (en fait, viennent de …) des formules classiques et usuelles de probabilités. Le but de ce qui suit est justement de voir (au sens propre du terme !, sur un arbre) ces formules.

Probabilité conditionnelle


Les probabilités conditionnelles apparaissent directement dans les arbres, d'après la règle 3.
Pour deux événements par exemple, l'arbre se présente ainsi, d'après la règle 3:
\[\psset{unit=1cm}\begin{pspicture}(0,-3)(5,3)
  \psline(2,1.5)(0,0)(2,-1.5)
  \rput(2.2,1.5){$A$}\rput(.7,1){\small$P(A)$}
  \rput(2.2,-1.5){$\overline{A}$}\rput(.7,-1.1){\small$P\lp\overline{A}\rp$}
  \psline(4.5,2.5)(2.5,1.5)(4.5,.5)
    \rput(4.7,2.5){$B$}\rput(3.4,2.3){\small$P_A(B)$}
    \rput(4.7,.5){$\overline{B}$}\rput(3.4,.5){\small$P_A\lp\overline{B}\rp$}
  \psline(4.5,-2.5)(2.5,-1.5)(4.5,-.5)
    \rput(4.7,-.5){$B$}\rput(3.4,-.7){\small$P_{\overline{A}}(B)$}
    \rput(4.7,-2.5){$\overline{B}$}\rput(3.4,-2.5){\small$P_{\overline{A}}\lp\overline{B}\rp$}
\end{pspicture}\]


et on a directement, d'après la règle 2, par exempe pour le chemin du haut:
\[P(A\cap B)=P(A)\tm P_A(B)\]

qui est la définition même de la probabilité conditionnelle:
\[P_A(B)=\dfrac{P(A\cap B)}{P(A)}\]



Formule de Bayes


La formule de Bayes permet d'"inverser" les probabilités conditionnelles, c'est-à-dire de calculer $P_B(A)$ en connaissant $P_A(B)$.
Son expression est naturelle en utilisant justement l'arbre dit "inversé":
\[\psset{unit=1cm}\begin{pspicture}(0,-3)(11,3)
  \psline(2,1.5)(0,0)(2,-1.5)
  \rput(2.2,1.5){$A$}\rput(.7,1){\small$P(A)$}
  \rput(2.2,-1.5){$\overline{A}$}\rput(.7,-1.1){\small$P\lp\overline{A}\rp$}
  \psline(4.5,2.5)(2.5,1.5)(4.5,.5)
    \rput(4.7,2.5){$B$}\rput(3.4,2.3){\small$P_A(B)$}
    \rput(4.7,.5){$\overline{B}$}\rput(3.4,.5){\small$P_A\lp\overline{B}\rp$}
  \psline(4.5,-2.5)(2.5,-1.5)(4.5,-.5)
    \rput(4.7,-.5){$B$}\rput(3.4,-.7){\small$P_{\overline{A}}(B)$}
    \rput(4.7,-2.5){$\overline{B}$}\rput(3.4,-2.5){\small$P_{\overline{A}}\lp\overline{B}\rp$}
\rput(5.5,0){\bf et}
  \psline(8,1.5)(6,0)(8,-1.5)
  \rput(8.2,1.5){$B$}\rput(6.7,1){\small$P(B)$}
  \rput(8.2,-1.5){$\overline{B}$}\rput(6.7,-1.1){\small$P\lp\overline{B}\rp$}
  \psline(10.5,2.5)(8.5,1.5)(10.5,.5)
    \rput(10.7,2.5){$A$}\rput(9.4,2.3){\small$P_B(A)$}
    \rput(10.7,.5){$\overline{A}$}\rput(9.4,.5){\small$P_B\lp\overline{A}\rp$}
  \psline(10.5,-2.5)(8.5,-1.5)(10.5,-.5)
    \rput(10.7,-.5){$A$}\rput(9.4,-.7){\small$P_{\overline{B}}(A)$}
    \rput(10.7,-2.5){$\overline{A}$}\rput(9.4,-2.5){\small$P_{\overline{B}}\lp\overline{A}\rp$}
\end{pspicture}\]

Dans les deux arbres, le chemin du haut, par exemple, décrit le même événement $A\cap B$ et on a alors
  • dans l'arbre de gauche $P(A\cap B)=P(A)\tm P_A(B)$
  • dans l'arbre inversé à droite $P(A\cap B)=P(B)\tm P_B(A)$
On obtient donc
\[P(A)\tm P_A(B)=P(B)\tm P_B(A)\]

ou encore,
\[P_A(B)=P_B(A)\dfrac{P(B)}{P(A)}\]

qui est la formule de Bayes réalisant l'inversion annoncée.


Propriété: Formule de Bayes Pour $A$ et $B$ deux événements de probabilités non nulles on a
\[P_A(B)=P_B(A)\dfrac{P(B)}{P(A)}\]



Exercice 3:
J'ai trois pièces dans ma poche, deux normales, et une avec "Pile" sur ses deux faces.
Je prends une pièce au hasard dans ma poche, la lance et obtiens "Pile". Quelle est la probabilité que cette pièce présente aussi "Pile" sur son autre face ?

Correction: On note les événements:
  • $A$: "la pièce prise dans ma poche est la pièce avec Pile sur les deux faces"
  • $B$: "j'obtiens Pile"
Il est facile de voir que $P_A(B)=1$ (sachant que j'ai lancé la pièce avec Pile des deux côtés, j'obtiens à coup sûr Pile).
La probabilité qui nous intéresse ici est celle "inverse": $P_B(A)$.
On a alors, d'après l'énoncé, $P(A)=\dfrac13$, $P_A(B)=1$ et, pour les pièces normales (équilibrées), $P_{\overline{A}}(B)=\dfrac12$,



Comme dans l'exemple/exercice précédent, la formule de Bayes on complète la formule de Bayes avec la formule des probabilités totales.

Formule des probabilités totales


D'après l'arbre:
\[\psset{xunit=1.5cm,yunit=1.7cm}
  \begin{pspicture}(-.05,-5)(4.5,1.8)
  \psline(0,0)(1.5,1)\rput(1.7,1){$A_1$}\rput(0.6,0.7){$P\lp A_1\rp$}
  \psline(2,1.1)(4,1.5)\rput(4.2,1.5){$B$}\rput(3.1,1.5){$P_{A_1}(B)$}
  \psline[linestyle=dotted](4,1)(2,1.1)(4,0.65)(2,1.1)(4,.3)
  %
  \psline(0,0)(1.5,-.5)\rput(1.7,-.5){$A_2$}\rput(1,-.1){$P\lp A_2\rp$}
  \psline(2,-.5)(4,-.1)\rput(4.2,-.1){$B$}\rput(3.1,-.1){$P_{A_2}(B)$}
  \psline[linestyle=dotted](4,-.6)(2,-.5)(4,-.95)(2,-.5)(4,-1.3)  
  %
  \psline[linestyle=dotted](1.5,-2)(0,0)(1.5,-1.5)(0,0)(1.5,-2.5)(0,0)(1.5,-3.2)
  %
  \psline(0,0)(1.5,-4)\rput(1.7,-4){$A_n$}\rput(.6,-3){$P\lp A_n\rp$}
  \psline(2,-4)(4,-3.6)\rput(4.2,-3.6){$B$}\rput(3.1,-3.6){$P_{A_n}(B)$}
  \psline[linestyle=dotted](4,-4.1)(2,-4)(4,-4.45)(2,-4)(4,-4.8)  
\end{pspicture}\]

on a la formule en appliquant la règle 4:
\[\bgar{ll}P(B)&=P\lp A_1\rp\tm P_{A_1}(B)
+P\lp A_2\rp\tm P_{A_2}(B)
+\dots
+P\lp A_n\rp\tm P_{A_n}(B)\\[.8em]
&=\dsp\sum_{i=1}^nP_{A_i}(B)\enar\]

qui est la formule des probabilités totales:

Propriété: formule des probabilités totales Si $\lp A_i\rp_{1\leqslant i\leqslant n}$ est un système complet d'événement (ou une partition) de l'univers $\Omega$, alors, pour tout événement $B$ de $\Omega$, on a la formule des probabilités totales
\[\bgar{ll}P(B)&=P\lp A_1\rp\tm P_{A_1}(B)
+\dots
+P\lp A_n\rp\tm P_{A_n}(B)\\[.8em]
&=\dsp\sum_{i=1}^nP_{A_i}(B)\enar\]


La formule de Bayes prend souvent son intérêt lorsque combinée avec la formule des probabilités totales.


Exercice 4:
Une maladie touche une personne sur 100 dans un pays. Un médecin effectue le dépistage d'une maladie à l'aide d'un test fourni par un laboratoire.
Les caractéristiques, données par le laboratoire, de ce test sont les suivantes:
  • lorsque le patient sur lequel on effectue le test est malade, le test est positif dans 95% des cas (c'est ce qu'on appelle un vrai positif);
  • lorsque le patient sur lequel on effectue le test n'est pas malade, le test est positif dans un cas sur 100 (c'est ce qu'on appelle un faux positif).

Cette situation nous indique que si une personne est malade, le résultat de son test est positif avec une probabilité de 95%.
Par contre, ce qu'il ne nous dit pas directement, et c'est pourtan ce qui intéresse le plus fortement le patient utilisateur d'un tel test est: un patient reçoit un résultat positif. Quelle est la probabilité qu'il soit malade ?

Correction: Avec des arbres
On note les événements:
  • $M$:"La personne est malade"
  • $T$:"Le résultat du test est positif"
et la situation se modélise alors par l'arbre
\[\psset{unit=1.5cm}
  \begin{pspicture}(-.2,-1.8)(3,1.8)
    \psline(1,1)(0,0)(1,-1)
    \rput(0.4,0.8){$0,01$}\rput(1.3,1){$M$}
    \rput(0.3,-0.8){$0,99$}\rput(1.3,-1){$\overline{M}$}
    \psline(2.5,1.5)(1.5,1)(2.5,0.5)
    \rput(2,1.5){$0,95$}\rput(2.7,1.5){$T$}
    \rput(2,0.4){$0,05$}\rput(2.7,0.5){$\overline{T}$}
    \psline(2.5,-1.5)(1.5,-1)(2.5,-0.5)
    \rput(2,-1.6){$0,99$}\rput(2.7,-1.5){$\overline{T}$}
    \rput(2,-.5){$0,01$}\rput(2.7,-0.5){$T$}
  \end{pspicture}\]


La probabilité qu'une personne soit malade et ait un test positif est
\[P\lp M\cap T\rp=0,01\tm 0,95=0,0095\]


La probabilité qu'une personne prise au hasard dans la population ait un test positif est
\[P(T)=0,01\tm0,95+0,99\tm0,01=0,0194\]


On peut dresser l'arbre de probabilités "inversé" sur lequel apparaît la probabilité $P_T(M)$ recherchée:
\[\psset{unit=1.5cm}\begin{pspicture}(-.4,-1.8)(3.2,1.9)
    \psline(1,1)(0,0)(1,-1)
    \rput(0.2,0.8){$0,0194$}\rput(1.3,1){$T$}
    \rput(0.2,-0.9){$0,9806$}\rput(1.3,-1){$\overline{T}$}
    \psline(2.5,1.5)(1.5,1)(2.5,0.5)
    \rput(2.7,1.5){$M$}\rput(2.7,0.5){$\overline{M}$}
    \psline(2.5,-1.5)(1.5,-1)(2.5,-0.5)
    \rput(2.7,-1.5){$\overline{M}$}\rput(2.7,-0.5){$M$}
    \rput(1.9,1.5){\small$P_T(M)$}
\end{pspicture}\]

On a alors
\[\bgar{ll}0,0194&\tm P_T(M)=0,01\tm 0,95 \\[.7em]
\iff &P_T(M)=\dfrac{0,01\tm0,95}{0,0194}\simeq 0,49\enar\]



Ce test est ainsi peu significatif: la personne ayant un test positif n'a environ qu'une chance sur deux d'être malade (la probabilité est la même en passant ce test qu'en jouant cela à pile ou face …).


Correction: Avec la formule de Bayes On peut aussi bien sûr appliquer directement la formule de Bayes:
\[P_T(M)=P_M(T)\tm\dfrac{P(M)}{P(T)}\]

avec $P(M)=1\%$ donné par l'énoncé, et, en utilisant la formule des probabilités totales,
\[\bgar{ll}P(T)&=P\lp M\cap T\rp+P\lp\overline{T}\cap M\rp\\[.7em]
&=P(M)\tm P_M(T)+P\lp\overline{M}\rp\tm P_{\overline{M}}(T)\\[.9em]
&=P(T)=0,01\tm0,95+0,99\tm0,01=0,0194\enar\]



Exercice 5:
Dans une assemblée où 5% des joueurs sont des tricheurs, vous jouez à pile ou face avec un autre joueur.
Il parie sur pile, lance la pièce, et vous dit qu'il a obtenu pile.
Quelle est la probabilité pour qu'il soit un tricheur?

Correction: On note les événements:
  • $P$: "le joueur obtient pile"
  • $H$: "Le joueur est honnête"
  • $T$: "le joueur est un tricheur".
Il semble raisonnable de convenir que $P_H(P)=P_H(F)=1/2$ et $P_T(P)=1$ (le tricheur va, à coup sûr, déclarer qu'il a eu ce qu'il a parié).
On cherche alors $P_P(T)$.
De la formule de Bayes, on déduit :
\[\bgar{ll}P_P(T)&=\dfrac{P_T(P)P(T)}{P_T(P)P(T)+P_H(P)P(H)}\\[1.1em]
&=\dfrac{5\%}{5\%+\dfrac12(1-5\%)}\\[2em]
&\simeq0,095\enar\]

Ainsi, dans l'absolu, la probabilité d'être face à un tricheur est de 5%. Si la personne a gagné son parie, la probabilité d'être face à un tricheur est près du double…


Formule des probabilités composées


Dans un arbre, avec deux "niveaux", on a:
\[\psset{unit=1cm}\begin{pspicture}(0,-2)(5,3)
  \psline(2,1.5)(0,0)
  \psline[linestyle=dotted](2,0)(0,0)(2,-1.5)
  \rput(2.2,1.5){$A$}\rput(.7,1){\small$P(A)$}
%  \rput(2.2,-1.5){$\overline{A}$}\rput(.7,-1.1){\small$P\lp\overline{A}\rp$}
  \psline(4.5,2.5)(2.5,1.5)
  \psline[linestyle=dotted](4.5,1)(2.5,1.5)(4.5,.5)
    \rput(4.7,2.5){$B$}\rput(3.4,2.3){\small$P_A(B)$}
%    \rput(4.7,.5){$\overline{B}$}\rput(3.4,.5){\small$P_A\lp\overline{B}\rp$}
\end{pspicture}\]

et donc,
\[P(A\cap B)=P(A)\tm P_A(B)\]

ce qui est la définition de la probabilité conditionnelle.

Pour un arbre avec trois "niveaux", on a:
\[\psset{unit=1cm}\begin{pspicture}(0,-1.2)(8,3.5)
  \psline(2,1.5)(0,0)
  \psline[linestyle=dotted](2,0)(0,0)(2,-1)
  \rput(2.2,1.5){$A$}\rput(.7,1){\small$P(A)$}
%
  \psline(4.5,2.5)(2.5,1.5)
  \psline[linestyle=dotted](4.5,1)(2.5,1.5)(4.5,.5)(2.5,1.5)(4.5,1.5)
  \rput(4.7,2.5){$B$}\rput(3.4,2.3){\small$P_A(B)$}
%
  \psline(5,2.5)(7,3)\rput(7.2,3){$C$}
  \psline[linestyle=dotted](7,2)(5,2.5)(7,1.5)(5,2.5)(7,2.5)
  \rput(5.9,3.1){$P_{A\cap B}(C)$}
\end{pspicture}\]

et on a alors
\[P\lp A\cap B\cap C\rp=P(A)\tm P_A(B)\tm P_{A\cap B}(C)\]

qui est la formule des probabilités composées avec trois événements.

Cette propriété se généralise à un nombre quelconque d'événements:

Propriété: formule des probabilités composées Soit $n$ événements $\lp A_i\rp_{1\leqslant i\leqslant n}$ tels que $P\lp\dsp\bigcap_{i=1}^{n-1}A_i\rp\not=0$, alors

\[P\lp\bigcap_{i=1}^nA_i\rp=
P\lp A_1\rp\tm 
P_{A_1}\lp A_2\rp\tm
\dots
P_{A_1\cap A_2\cap\dots\cap A_{n-1}}\lp A_n\rp\]




Exercice 6:
On considère une urne contenant 4 boules blanches et 3 boules noires. On tire une à une et sans remise 3 boules de l'urne. Quelle est la probabilité pour que la première boule tirée soit blanche, la seconde noire et la troisième blanche?

Correction: On note les événements
  • $A$: "la première boule tirée est blanche"
  • $B$: "la deuxième boule tirée est noire"
  • $C$: "la troisième boule tirée est blanche"
À l'aide ensuite d'un arbre (du moins une partie, celle nous ntéressant), qui permet de représenter clairement la situation et les pobabilités correspondantes successives:

\begin{pspicture} arbre et probabilités composées \end{pspicture}
avec
  • au début, il y a 7 boules dont 4 blanches, donc $P(A)=\dfrac47$,
  • ensuite, sachant $A$, il reste 6 boules dont 3 noires, et donc $P_A(B)=\dfrac36=\dfrac12$
  • enfin, sachant $A\cap B$, il reste 5 boules dont 3 blanches, et donc $P_{A\cap B}(C)=\dfrac35$
En utilisant l'arbre, ou la formule des probabilités composées, on a alors
\[\bgar{ll}P\lp A\cap B\cap C\rp&=\dfrac47\tm\dfrac12\tm\dfrac35\\[1em]&=\dfrac6{35}\enar\]



Événements indépendants


Deux événénements sont indépendants lorsque la connaissance de l'un ne change pas la probabilité de réalisation de l'autre: $A$ et $B$ sont indépendants lorsque
\[P_B(A)=P(A)\]

ou encore, d'après la définition de la probabilité conditionnelle
\[\bgar{ll}&P_B(A)=\dfrac{P(A\cap B)}{P(B)}=P(A)\\[1em]
\iff & P(A\cap B)=P(A)\tm P(B)\enar\]


L'utilisation via un arbre se fait encore naturellement: les règles de constructions / calculs restent les mêmes, les probabilités indiquées sur les branches sont simplement à adapter.

Exercice 7:
Une information est transmise à l'intérieur d'une population. Lorsque deux personnes communiquent, l'information est correctement transmise avec la probabilité $p$. L'information contraire est donc transmise avec la probabilité $1-p$. Bien sûr une personne transmet l'information comme il le souhaite, indépendamment du fait qu'il a, ou non, l'information correcte (ce qu'il ne sait d'ailleurs peut être pas).
Déterminer $p_n$, la probabilité que l'information soit correcte après $n$ transmissions.

Correction: On note $C_n$ l'événement: "l'information est correctement transmise à la n-ième transmission". On peut représenter la situation avec un arbre, sur lequel, à chaque répétition, les probabilités restent $p$ et $1-p$ par indépendance.
\[\psset{unit=1.5cm}\begin{pspicture}(-.4,-1.8)(3.2,1.9)
    \psline(1,1)(0,0)(1,-1)
    \rput(0.3,0.5){$p$}\rput(1.3,1){$C_n$}
    \rput(0.2,-0.7){$1-p$}\rput(1.3,-1){$\overline{C_n}$}
    \psline(2.5,1.5)(1.5,1)(2.5,0.5)
    \rput[l](2.7,1.5){$C_{n+1}$}\rput[l](2.7,0.5){$\overline{C_{n+1}}$}
    \psline(2.5,-1.5)(1.5,-1)(2.5,-0.5)
    \rput[l](2.7,-1.5){$C_{n+1}$}\rput[l](2.7,-0.5){$\overline{C_{n+1}}$}
    \rput(2,1.4){$p$}
    \rput(2,.5){$1-p$}
    \rput(2,-.6){$p$}
    \rput(2,-1.5){$1-p$}
\end{pspicture}\]

L'utilisation de cet arbre, ou la formule des probabilités totales (règle 4), nous donne alors
\[\bgar{ll}p_{n+1}&=P\lp C_{n+1}\rp\\[.6em]
&=P\lp C_n\rp\tm P_{C_n}\lp C_{n+1}\rp
+P\lp\overline{C_n}\rp\tm P_{\overline{C_n}}\lp C_{n+1}\rp\\[.6em]
&=p_n\tm p+\lp1-p_n\rp\tm(1-p)\\[.6em]
&=(2-p)p_n+1-p
\enar\]


La suite $\lp p_n\rp$ est donc une suite arithmético-géométrique, de limite éventuelle $l$ avec
\[l=(2p-1)l+1-p\iff l=\dfrac12\]

Soit alors $u_n=p_n-\dfrac12$, telle que
\[\bgar{ll}u_{n+1}&=p_{n+1}-\dfrac12\\
&=(2p-1)p_n+1-p-\dfrac12\\
&=(2p-1)p_n+\dfrac12-p\\
&=(2p-1)\lp p_n-\dfrac12\rp\\
&=(2p-1)u_n\enar\]

Ainsi, $\lp u_n\rp$ est géométrique de raison $(2p-1)$ et donc
\[u_n=u_0(2p-1)^n=\lp p_0-\dfrac12\rp(2p-1)^n\]

et finalement, en revenant à $p_n$:
\[p_n=u_n+\dfrac12=\lp p_0-\dfrac12\rp(2p-1)^n+\dfrac12\]

On distingue alors plusieurs cas:
  • $\left|2p-1\right|<1\iff 0<p<1$, alors $\dsp\lim_{n\to+\infty}(2p-1)^n=0$, et $\dsp\lim_{n\to+\infty}p_n=\dfrac12$: si l'information n'est pas transmise certainement à chaque étape, donc $p\not=0$ et $p\not=1$, alors à long terme l'information est perdue, une personne à une chance sur deux d'entendre la vraie information comme son contraire
  • si $p=1$, alors pour tout $n$, $p_n=p_0$: l'information est sûrement transmise, et la proportion de personnes qui possèdent la vraie information est constante.
  • si $p=0$, alors $p_n=(-1)^n\lp p_0-\dfrac12\rp+\dfrac12$ et $p_n$ vaut alternativement $p_0$ et $1-p_0$: tout le monde dit toujours le contraire de ce qu'il entend…


Voir aussi