Arbres et formules classiques de probabilités
Y. Morel
Un arbre de probabilités est un outil efficace pour traiter des problèmes de probabilités ou de décision. Cette efficacité tient notamment au fait que ces arbres, en respectant quatre simples règles, contiennent de nombreuses formules classiques et usuelles de probabilité.
Le but de cet article est de faire le lien entre les arbres de probabilités et leurs quelques quatre règles et des propriétés très classiques de probabilité: probabilité conditionnelle, formule de Bayes, formules des probabilités totales et des probabilités composées.
Arbre de probabilités
Introduction et exemples
Un arbre de probabilité est un arbre descriptif des issues d'une expérience aléatoire, chaque issue étant pondérée par une probabilité.
Un tel arbre est un outil très efficace pour décrire, modéliser et enfin résoudre bon nombre de problèmes liés à des questions de probabilités.
Exemple 1
On lance un dé à six faces, numérotées de 1 à 6, bien équilibré.
La règle du jeu est la suivante: si le chiffre obtenu est inférieur ou égal à 2, on le relance une deuxième fois et on ajoute alors le nouveau chiffre obtenu au premier; si le chiffre obtenu est supérieur ou égal à 3, on conserve ce résultat.
Quelle est la probabilité d'obtenir un score de 6 ?
La règle du jeu est la suivante: si le chiffre obtenu est inférieur ou égal à 2, on le relance une deuxième fois et on ajoute alors le nouveau chiffre obtenu au premier; si le chiffre obtenu est supérieur ou égal à 3, on conserve ce résultat.
Quelle est la probabilité d'obtenir un score de 6 ?
Correction: On peut représenter la situation avec un arbre:
{.28}
\psline{->}(4.4,2.5)(6,2.5)\rput(6.2,2.5){7}
\psline{->}(4.4,2.0)(6,2.0)\rput(6.2,2.0){3}
\psline{->}(4.4,1.5)(6,1.5)\rput(6.2,1.5){4}
\psline{->}(4.4,1.0)(6,1.0)\rput(6.2,1.0){5}
\psline{->}(4.4,0.5)(6,0.5)\rput(6.2,0.5){6}\pscircle[linecolor=red,linewidth=1.3pt](6.2,.52){.28}
\psline{->}(4.4,0.0)(6,0.0)\rput(6.2,0.0){7}
\psline{->}(4.4,-0.5)(6,-0.5)\rput(6.2,-0.5){8}
\psline{->}(2.4,-1.5)(6,-1.5)\rput(6.2,-1.5){3}
\psline{->}(2.4,-2.5)(6,-2.5)\rput(6.2,-2.5){4}
\psline{->}(2.4,-3.5)(6,-3.5)\rput(6.2,-3.5){5}
\psline{->}(2.4,-4.5)(6,-4.5)\rput(6.2,-4.5){6}\pscircle[linecolor=red,linewidth=1.3pt](6.2,-3.48){.28}
\end{pspicture}\]](fich-IMG/1.png)
Chaque tirage à une probabilité
(c'est la règle 1 de construction d'un arbre).
Obtenir 6 peut se faire de trois manières (trois chemins dans cet arbre):
La probabilité de l'événement "obtenir 6" est donc: (règle 4 ou formule des probabilités totales)
![\[P=\dfrac1{6^2}+\dfrac1{6^2}+\dfrac16=\dfrac8{36}=\dfrac29\]](fich-IMG/6.png)
{.28}
\psline{->}(4.4,2.5)(6,2.5)\rput(6.2,2.5){7}
\psline{->}(4.4,2.0)(6,2.0)\rput(6.2,2.0){3}
\psline{->}(4.4,1.5)(6,1.5)\rput(6.2,1.5){4}
\psline{->}(4.4,1.0)(6,1.0)\rput(6.2,1.0){5}
\psline{->}(4.4,0.5)(6,0.5)\rput(6.2,0.5){6}\pscircle[linecolor=red,linewidth=1.3pt](6.2,.52){.28}
\psline{->}(4.4,0.0)(6,0.0)\rput(6.2,0.0){7}
\psline{->}(4.4,-0.5)(6,-0.5)\rput(6.2,-0.5){8}
\psline{->}(2.4,-1.5)(6,-1.5)\rput(6.2,-1.5){3}
\psline{->}(2.4,-2.5)(6,-2.5)\rput(6.2,-2.5){4}
\psline{->}(2.4,-3.5)(6,-3.5)\rput(6.2,-3.5){5}
\psline{->}(2.4,-4.5)(6,-4.5)\rput(6.2,-4.5){6}\pscircle[linecolor=red,linewidth=1.3pt](6.2,-3.48){.28}
\end{pspicture}\]](fich-IMG/1.png)
Chaque tirage à une probabilité

Obtenir 6 peut se faire de trois manières (trois chemins dans cet arbre):
- Obtenir un 1 puis un 5, de probabilité
(règle 2)
- Obtenir un 2 puis un 6, de probabilité
(règle 2)
- Obtenir un 6 directement, de probabilité
. (règle 2)
La probabilité de l'événement "obtenir 6" est donc: (règle 4 ou formule des probabilités totales)
![\[P=\dfrac1{6^2}+\dfrac1{6^2}+\dfrac16=\dfrac8{36}=\dfrac29\]](fich-IMG/6.png)
Exemple 2
Une entreprise produit des composants dans deux usines.
La première fournit 70% de la production, la deuxième le reste.
Si la première usine produit plus que la deuxième, sa production est par contre un peu moins efficace: 4% des composants qu'elle produit son défectueux contre 3% pour la deuxième usine.
Quelle est la proportion de pièces défectueuses dans la production totale ?
Quelle est la proportion de pièces défectueuses dans la production totale ?
Correction:Correction:
Cet exercice est un simple exercice de proportions/pourcentages qui peut se résoudre sans arbre ni formule complexe de probabilité:
il y a 4% des 70% de composants défectueux pour la première usine,
soit 4%x70%=2,8%,
et 3% des 30% restants pour la deuxième, soit
3%x30%=0,9%.
Au total, il y 2,8%+0,9%=3,7% de composants défectueux produits.
La description, puis le calcul, est néanmoins pratique et efficace avec un arbre pondéré, et permet d'inscrire ce problème simple dans une classe bien plus large de problèmes.
On note l'événement
: "le composant est défectueux", et on peut alors dresser l'arbre pondéré
{usine 1}\rput(.7,1){70\%}
\rput[l](2.12,-1.5){usine 2}\rput(.7,-1.1){30\%}
\psline(4.5,2.5)(3.5,1.5)(4.5,.5)
\rput(4.7,2.5){$D$}\rput(3.8,2.3){4\%}
\rput(4.7,.5){$\overline{D}$}\rput(3.8,.5){96\%}
\psline(4.5,-2.5)(3.5,-1.5)(4.5,-.5)
\rput(4.7,-.5){$D$}\rput(3.8,-.7){3\%}
\rput(4.7,-2.5){$\overline{D}$}\rput(3.8,-2.5){97\%}
\end{pspicture}\]](fich-IMG/8.png)
La proportion de pièces défectueuses est alors
![\[p=70\%\tm4\%+30\%\tm3\%=0,037=3,7\%\]](fich-IMG/9.png)
Au total, il y 2,8%+0,9%=3,7% de composants défectueux produits.
La description, puis le calcul, est néanmoins pratique et efficace avec un arbre pondéré, et permet d'inscrire ce problème simple dans une classe bien plus large de problèmes.
On note l'événement

{usine 1}\rput(.7,1){70\%}
\rput[l](2.12,-1.5){usine 2}\rput(.7,-1.1){30\%}
\psline(4.5,2.5)(3.5,1.5)(4.5,.5)
\rput(4.7,2.5){$D$}\rput(3.8,2.3){4\%}
\rput(4.7,.5){$\overline{D}$}\rput(3.8,.5){96\%}
\psline(4.5,-2.5)(3.5,-1.5)(4.5,-.5)
\rput(4.7,-.5){$D$}\rput(3.8,-.7){3\%}
\rput(4.7,-2.5){$\overline{D}$}\rput(3.8,-2.5){97\%}
\end{pspicture}\]](fich-IMG/8.png)
La proportion de pièces défectueuses est alors
![\[p=70\%\tm4\%+30\%\tm3\%=0,037=3,7\%\]](fich-IMG/9.png)
Les arbres sont abondamment utilisés en probabilité. De nombreuses formules classiques de probabilités se font de plus en plus rares dans les cours de probabilité, sans avoir disparues pour autant: un bon nombre de ces formules s'utilisent "naturellement" via un arbre de probabilités, sans même avoir besoin de les nommer.
Arbre général de probabilités
(4.5,-.5)(6,-1)
%
\rput(3.2,-0.5){$p_6$}
\psline(2,-1)(4,-1)\rput(4.2,-1){$G$}\rput(3.2,-0.9){$p_7$}
\psline(2,-1)(4,-1.5)\rput(4.2,-1.5){$H$}\rput(3.2,-1.5){$p_8$}
\psline[linestyle=dotted](6,-1.5)(4.5,-1.5)(6,-1.8)(4.5,-1.5)(6,-2)
%
\psline(0,0)(1.5,-3.5)\rput(1.7,-3.5){$C$}
\psline(4,-3)(2,-3.5)(4,-3.5)\rput(0.6,-1.8){$p_3$}
\rput(4.2,-3){$\dots$}\rput(3.2,-3.05){$p_9$}
\rput(4.2,-3.5){$E$}\rput(3.2,-3.4){$p_{10}$}
\psline[linestyle=dotted](4,-4)(2,-3.5)(4,-4.5)
\psline[linestyle=dotted](6,-3.5)(4.5,-3.5)(6,-4)(4.5,-3.5)(6,-3)
\end{pspicture}\]](fich-IMG/10.png)
Règles de construction et de calculs
- Règle 1:
- La somme des probabilités des branches issues d'un même nœud est égale à 1.
Par exemple ici,,
,
, …
- Règle 2:
- Un chemin décrit l'intersection des événements qui le composent.
Sa probabilité est le produit des probabilités.
Par exemple ici,- Le chemin menant de
à
décrit l'événement
, sa probabilité est
.
- Le chemin menant de
à
décrit l'événement
, sa probabilité est
.
- Le chemin menant de
- Règle 3:
- Sur chaque branche, la probabilité indiquée est la probabilité conditionnelle de l'événement d'arrivé (à droite) sachant celui de départ (à gauche).
Par exemple ici,,
,
, et
- Règle 4:
- La probabilité d'un événement
est la somme des probabilités des chemins qui mènent à cet événement.
Par exemple ici, l'événementse trouvent sur deux chemins et on a
Ces règles contiennent (en fait, viennent de …) des formules classiques et usuelles de probabilités. Le but de ce qui suit est justement de voir (au sens propre du terme !, sur un arbre) ces formules.
Probabilité conditionnelle
Les probabilités conditionnelles apparaissent directement dans les arbres, d'après la règle 3.
Pour deux événements par exemple, l'arbre se présente ainsi, d'après la règle 3:
![\[\psset{unit=1cm}\begin{pspicture}(0,-3)(5,3)
\psline(2,1.5)(0,0)(2,-1.5)
\rput(2.2,1.5){$A$}\rput(.7,1){\small$P(A)$}
\rput(2.2,-1.5){$\overline{A}$}\rput(.7,-1.1){\small$P\lp\overline{A}\rp$}
\psline(4.5,2.5)(2.5,1.5)(4.5,.5)
\rput(4.7,2.5){$B$}\rput(3.4,2.3){\small$P_A(B)$}
\rput(4.7,.5){$\overline{B}$}\rput(3.4,.5){\small$P_A\lp\overline{B}\rp$}
\psline(4.5,-2.5)(2.5,-1.5)(4.5,-.5)
\rput(4.7,-.5){$B$}\rput(3.4,-.7){\small$P_{\overline{A}}(B)$}
\rput(4.7,-2.5){$\overline{B}$}\rput(3.4,-2.5){\small$P_{\overline{A}}\lp\overline{B}\rp$}
\end{pspicture}\]](fich-IMG/28.png)
et on a directement, d'après la règle 2, par exempe pour le chemin du haut:
![\[P(A\cap B)=P(A)\tm P_A(B)\]](fich-IMG/29.png)
qui est la définition même de la probabilité conditionnelle:
![\[P_A(B)=\dfrac{P(A\cap B)}{P(A)}\]](fich-IMG/30.png)
Formule de Bayes
La formule de Bayes permet d'"inverser" les probabilités conditionnelles, c'est-à-dire de calculer


Son expression est naturelle en utilisant justement l'arbre dit "inversé":
![\[\psset{unit=1cm}\begin{pspicture}(0,-3)(11,3)
\psline(2,1.5)(0,0)(2,-1.5)
\rput(2.2,1.5){$A$}\rput(.7,1){\small$P(A)$}
\rput(2.2,-1.5){$\overline{A}$}\rput(.7,-1.1){\small$P\lp\overline{A}\rp$}
\psline(4.5,2.5)(2.5,1.5)(4.5,.5)
\rput(4.7,2.5){$B$}\rput(3.4,2.3){\small$P_A(B)$}
\rput(4.7,.5){$\overline{B}$}\rput(3.4,.5){\small$P_A\lp\overline{B}\rp$}
\psline(4.5,-2.5)(2.5,-1.5)(4.5,-.5)
\rput(4.7,-.5){$B$}\rput(3.4,-.7){\small$P_{\overline{A}}(B)$}
\rput(4.7,-2.5){$\overline{B}$}\rput(3.4,-2.5){\small$P_{\overline{A}}\lp\overline{B}\rp$}
\rput(5.5,0){\bf et}
\psline(8,1.5)(6,0)(8,-1.5)
\rput(8.2,1.5){$B$}\rput(6.7,1){\small$P(B)$}
\rput(8.2,-1.5){$\overline{B}$}\rput(6.7,-1.1){\small$P\lp\overline{B}\rp$}
\psline(10.5,2.5)(8.5,1.5)(10.5,.5)
\rput(10.7,2.5){$A$}\rput(9.4,2.3){\small$P_B(A)$}
\rput(10.7,.5){$\overline{A}$}\rput(9.4,.5){\small$P_B\lp\overline{A}\rp$}
\psline(10.5,-2.5)(8.5,-1.5)(10.5,-.5)
\rput(10.7,-.5){$A$}\rput(9.4,-.7){\small$P_{\overline{B}}(A)$}
\rput(10.7,-2.5){$\overline{A}$}\rput(9.4,-2.5){\small$P_{\overline{B}}\lp\overline{A}\rp$}
\end{pspicture}\]](fich-IMG/33.png)
Dans les deux arbres, le chemin du haut, par exemple, décrit le même événement

- dans l'arbre de gauche
- dans l'arbre inversé à droite
![\[P(A)\tm P_A(B)=P(B)\tm P_B(A)\]](fich-IMG/37.png)
ou encore,
![\[P_A(B)=P_B(A)\dfrac{P(B)}{P(A)}\]](fich-IMG/38.png)
qui est la formule de Bayes réalisant l'inversion annoncée.
Propriété: Formule de Bayes
Pour
et
deux événements de probabilités non nulles on a
![\[P_A(B)=P_B(A)\dfrac{P(B)}{P(A)}\]](fich-IMG/41.png)


![\[P_A(B)=P_B(A)\dfrac{P(B)}{P(A)}\]](fich-IMG/41.png)
Exercice 3
J'ai trois pièces dans ma poche, deux normales, et une avec "Pile" sur ses deux faces.
Je prends une pièce au hasard dans ma poche, la lance et obtiens "Pile". Quelle est la probabilité que cette pièce présente aussi "Pile" sur son autre face ?
Je prends une pièce au hasard dans ma poche, la lance et obtiens "Pile". Quelle est la probabilité que cette pièce présente aussi "Pile" sur son autre face ?
Correction: On note les événements:
(sachant que j'ai lancé la pièce avec Pile des deux côtés, j'obtiens à coup sûr Pile).
La probabilité qui nous intéresse ici est celle "inverse":
.
On a alors, d'après l'énoncé,
,
et, pour les pièces normales (équilibrées),
,
-
: "la pièce prise dans ma poche est la pièce avec Pile sur les deux faces"
-
: "j'obtiens Pile"

La probabilité qui nous intéresse ici est celle "inverse":

On a alors, d'après l'énoncé,



Comme dans l'exemple/exercice précédent, la formule de Bayes on complète la formule de Bayes avec la formule des probabilités totales.
Formule des probabilités totales
D'après l'arbre:
(2,1.1)(4,0.65)(2,1.1)(4,.3)
%
\psline(0,0)(1.5,-.5)\rput(1.7,-.5){$A_2$}\rput(1,-.1){$P\lp A_2\rp$}
\psline(2,-.5)(4,-.1)\rput(4.2,-.1){$B$}\rput(3.1,-.1){$P_{A_2}(B)$}
\psline[linestyle=dotted](4,-.6)(2,-.5)(4,-.95)(2,-.5)(4,-1.3)
%
\psline[linestyle=dotted](1.5,-2)(0,0)(1.5,-1.5)(0,0)(1.5,-2.5)(0,0)(1.5,-3.2)
%
\psline(0,0)(1.5,-4)\rput(1.7,-4){$A_n$}\rput(.6,-3){$P\lp A_n\rp$}
\psline(2,-4)(4,-3.6)\rput(4.2,-3.6){$B$}\rput(3.1,-3.6){$P_{A_n}(B)$}
\psline[linestyle=dotted](4,-4.1)(2,-4)(4,-4.45)(2,-4)(4,-4.8)
\end{pspicture}\]](fich-IMG/49.png)
on a la formule en appliquant la règle 4:
![\[\bgar{ll}P(B)&=P\lp A_1\rp\tm P_{A_1}(B)
+P\lp A_2\rp\tm P_{A_2}(B)
+\dots
+P\lp A_n\rp\tm P_{A_n}(B)\\[.8em]
&=\dsp\sum_{i=1}^nP_{A_i}(B)\enar\]](fich-IMG/50.png)
qui est la formule des probabilités totales:
Propriété: formule des probabilités totales Si
est un système complet d'événement (ou une partition) de l'univers
, alors,
pour tout événement
de
, on a la formule des probabilités totales
![\[\bgar{ll}P(B)&=P\lp A_1\rp\tm P_{A_1}(B)
+\dots
+P\lp A_n\rp\tm P_{A_n}(B)\\[.8em]
&=\dsp\sum_{i=1}^nP_{A_i}(B)\enar\]](fich-IMG/55.png)




![\[\bgar{ll}P(B)&=P\lp A_1\rp\tm P_{A_1}(B)
+\dots
+P\lp A_n\rp\tm P_{A_n}(B)\\[.8em]
&=\dsp\sum_{i=1}^nP_{A_i}(B)\enar\]](fich-IMG/55.png)
La formule de Bayes prend souvent son intérêt lorsque combinée avec la formule des probabilités totales.
Exercice 4
Une maladie touche une personne sur 100 dans un pays.
Un médecin effectue le dépistage d'une maladie à l'aide d'un test
fourni par un laboratoire.
Les caractéristiques, données par le laboratoire, de ce test sont les suivantes:
Cette situation nous indique que si une personne est malade, le résultat de son test est positif avec une probabilité de 95%.
Par contre, ce qu'il ne nous dit pas directement, et c'est pourtan ce qui intéresse le plus fortement le patient utilisateur d'un tel test est: un patient reçoit un résultat positif. Quelle est la probabilité qu'il soit malade ?
Les caractéristiques, données par le laboratoire, de ce test sont les suivantes:
- lorsque le patient sur lequel on effectue le test est malade, le test est positif dans 95% des cas (c'est ce qu'on appelle un vrai positif);
- lorsque le patient sur lequel on effectue le test n'est pas malade, le test est positif dans un cas sur 100 (c'est ce qu'on appelle un faux positif).
Cette situation nous indique que si une personne est malade, le résultat de son test est positif avec une probabilité de 95%.
Par contre, ce qu'il ne nous dit pas directement, et c'est pourtan ce qui intéresse le plus fortement le patient utilisateur d'un tel test est: un patient reçoit un résultat positif. Quelle est la probabilité qu'il soit malade ?
Correction: Avec des arbres
On note les événements:
![\[\psset{unit=1.5cm}
\begin{pspicture}(-.2,-1.8)(3,1.8)
\psline(1,1)(0,0)(1,-1)
\rput(0.4,0.8){$0,01$}\rput(1.3,1){$M$}
\rput(0.3,-0.8){$0,99$}\rput(1.3,-1){$\overline{M}$}
\psline(2.5,1.5)(1.5,1)(2.5,0.5)
\rput(2,1.5){$0,95$}\rput(2.7,1.5){$T$}
\rput(2,0.4){$0,05$}\rput(2.7,0.5){$\overline{T}$}
\psline(2.5,-1.5)(1.5,-1)(2.5,-0.5)
\rput(2,-1.6){$0,99$}\rput(2.7,-1.5){$\overline{T}$}
\rput(2,-.5){$0,01$}\rput(2.7,-0.5){$T$}
\end{pspicture}\]](fich-IMG/58.png)
La probabilité qu'une personne soit malade et ait un test positif est
![\[P\lp M\cap T\rp=0,01\tm 0,95=0,0095\]](fich-IMG/59.png)
La probabilité qu'une personne prise au hasard dans la population ait un test positif est
![\[P(T)=0,01\tm0,95+0,99\tm0,01=0,0194\]](fich-IMG/60.png)
On peut dresser l'arbre de probabilités "inversé" sur lequel apparaît la probabilité
recherchée:
![\[\psset{unit=1.5cm}\begin{pspicture}(-.4,-1.8)(3.2,1.9)
\psline(1,1)(0,0)(1,-1)
\rput(0.2,0.8){$0,0194$}\rput(1.3,1){$T$}
\rput(0.2,-0.9){$0,9806$}\rput(1.3,-1){$\overline{T}$}
\psline(2.5,1.5)(1.5,1)(2.5,0.5)
\rput(2.7,1.5){$M$}\rput(2.7,0.5){$\overline{M}$}
\psline(2.5,-1.5)(1.5,-1)(2.5,-0.5)
\rput(2.7,-1.5){$\overline{M}$}\rput(2.7,-0.5){$M$}
\rput(1.9,1.5){\small$P_T(M)$}
\end{pspicture}\]](fich-IMG/62.png)
On a alors
![\[\bgar{ll}0,0194&\tm P_T(M)=0,01\tm 0,95 \\[.7em]
\iff &P_T(M)=\dfrac{0,01\tm0,95}{0,0194}\simeq 0,49\enar\]](fich-IMG/63.png)
Ce test est ainsi peu significatif: la personne ayant un test positif n'a environ qu'une chance sur deux d'être malade (la probabilité est la même en passant ce test qu'en jouant cela à pile ou face …).
Correction: Avec la formule de Bayes On peut aussi bien sûr appliquer directement la formule de Bayes:
![\[P_T(M)=P_M(T)\tm\dfrac{P(M)}{P(T)}\]](fich-IMG/64.png)
avec
donné par l'énoncé,
et, en utilisant la formule des probabilités totales,
![\[\bgar{ll}P(T)&=P\lp M\cap T\rp+P\lp\overline{T}\cap M\rp\\[.7em]
&=P(M)\tm P_M(T)+P\lp\overline{M}\rp\tm P_{\overline{M}}(T)\\[.9em]
&=P(T)=0,01\tm0,95+0,99\tm0,01=0,0194\enar\]](fich-IMG/66.png)
On note les événements:
-
:"La personne est malade"
-
:"Le résultat du test est positif"
![\[\psset{unit=1.5cm}
\begin{pspicture}(-.2,-1.8)(3,1.8)
\psline(1,1)(0,0)(1,-1)
\rput(0.4,0.8){$0,01$}\rput(1.3,1){$M$}
\rput(0.3,-0.8){$0,99$}\rput(1.3,-1){$\overline{M}$}
\psline(2.5,1.5)(1.5,1)(2.5,0.5)
\rput(2,1.5){$0,95$}\rput(2.7,1.5){$T$}
\rput(2,0.4){$0,05$}\rput(2.7,0.5){$\overline{T}$}
\psline(2.5,-1.5)(1.5,-1)(2.5,-0.5)
\rput(2,-1.6){$0,99$}\rput(2.7,-1.5){$\overline{T}$}
\rput(2,-.5){$0,01$}\rput(2.7,-0.5){$T$}
\end{pspicture}\]](fich-IMG/58.png)
La probabilité qu'une personne soit malade et ait un test positif est
![\[P\lp M\cap T\rp=0,01\tm 0,95=0,0095\]](fich-IMG/59.png)
La probabilité qu'une personne prise au hasard dans la population ait un test positif est
![\[P(T)=0,01\tm0,95+0,99\tm0,01=0,0194\]](fich-IMG/60.png)
On peut dresser l'arbre de probabilités "inversé" sur lequel apparaît la probabilité

![\[\psset{unit=1.5cm}\begin{pspicture}(-.4,-1.8)(3.2,1.9)
\psline(1,1)(0,0)(1,-1)
\rput(0.2,0.8){$0,0194$}\rput(1.3,1){$T$}
\rput(0.2,-0.9){$0,9806$}\rput(1.3,-1){$\overline{T}$}
\psline(2.5,1.5)(1.5,1)(2.5,0.5)
\rput(2.7,1.5){$M$}\rput(2.7,0.5){$\overline{M}$}
\psline(2.5,-1.5)(1.5,-1)(2.5,-0.5)
\rput(2.7,-1.5){$\overline{M}$}\rput(2.7,-0.5){$M$}
\rput(1.9,1.5){\small$P_T(M)$}
\end{pspicture}\]](fich-IMG/62.png)
On a alors
![\[\bgar{ll}0,0194&\tm P_T(M)=0,01\tm 0,95 \\[.7em]
\iff &P_T(M)=\dfrac{0,01\tm0,95}{0,0194}\simeq 0,49\enar\]](fich-IMG/63.png)
Ce test est ainsi peu significatif: la personne ayant un test positif n'a environ qu'une chance sur deux d'être malade (la probabilité est la même en passant ce test qu'en jouant cela à pile ou face …).
Correction: Avec la formule de Bayes On peut aussi bien sûr appliquer directement la formule de Bayes:
![\[P_T(M)=P_M(T)\tm\dfrac{P(M)}{P(T)}\]](fich-IMG/64.png)
avec

![\[\bgar{ll}P(T)&=P\lp M\cap T\rp+P\lp\overline{T}\cap M\rp\\[.7em]
&=P(M)\tm P_M(T)+P\lp\overline{M}\rp\tm P_{\overline{M}}(T)\\[.9em]
&=P(T)=0,01\tm0,95+0,99\tm0,01=0,0194\enar\]](fich-IMG/66.png)
Exercice 5
Dans une assemblée où 5% des joueurs sont des tricheurs,
vous jouez à pile ou face avec un autre joueur.
Il parie sur pile, lance la pièce, et vous dit qu'il a obtenu pile.
Quelle est la probabilité pour qu'il soit un tricheur?
Il parie sur pile, lance la pièce, et vous dit qu'il a obtenu pile.
Quelle est la probabilité pour qu'il soit un tricheur?
Correction:
On note les événements:
et
(le tricheur va, à coup sûr, déclarer qu'il a eu ce qu'il a parié).
On cherche alors
.
De la formule de Bayes, on déduit :
![\[\bgar{ll}P_P(T)&=\dfrac{P_T(P)P(T)}{P_T(P)P(T)+P_H(P)P(H)}\\[1.1em]
&=\dfrac{5\%}{5\%+\dfrac12(1-5\%)}\\[2em]
&\simeq0,095\enar\]](fich-IMG/73.png)
Ainsi, dans l'absolu, la probabilité d'être face à un tricheur est de 5%. Si la personne a gagné son parie, la probabilité d'être face à un tricheur est près du double…
-
: "le joueur obtient pile"
-
: "Le joueur est honnête"
-
: "le joueur est un tricheur".


On cherche alors

De la formule de Bayes, on déduit :
![\[\bgar{ll}P_P(T)&=\dfrac{P_T(P)P(T)}{P_T(P)P(T)+P_H(P)P(H)}\\[1.1em]
&=\dfrac{5\%}{5\%+\dfrac12(1-5\%)}\\[2em]
&\simeq0,095\enar\]](fich-IMG/73.png)
Ainsi, dans l'absolu, la probabilité d'être face à un tricheur est de 5%. Si la personne a gagné son parie, la probabilité d'être face à un tricheur est près du double…
Formule des probabilités composées
Dans un arbre, avec deux "niveaux", on a:
(0,0)(2,-1.5)
\rput(2.2,1.5){$A$}\rput(.7,1){\small$P(A)$}
% \rput(2.2,-1.5){$\overline{A}$}\rput(.7,-1.1){\small$P\lp\overline{A}\rp$}
\psline(4.5,2.5)(2.5,1.5)
\psline[linestyle=dotted](4.5,1)(2.5,1.5)(4.5,.5)
\rput(4.7,2.5){$B$}\rput(3.4,2.3){\small$P_A(B)$}
% \rput(4.7,.5){$\overline{B}$}\rput(3.4,.5){\small$P_A\lp\overline{B}\rp$}
\end{pspicture}\]](fich-IMG/74.png)
et donc,
![\[P(A\cap B)=P(A)\tm P_A(B)\]](fich-IMG/75.png)
ce qui est la définition de la probabilité conditionnelle.
Pour un arbre avec trois "niveaux", on a:
(0,0)(2,-1)
\rput(2.2,1.5){$A$}\rput(.7,1){\small$P(A)$}
%
\psline(4.5,2.5)(2.5,1.5)
\psline[linestyle=dotted](4.5,1)(2.5,1.5)(4.5,.5)(2.5,1.5)(4.5,1.5)
\rput(4.7,2.5){$B$}\rput(3.4,2.3){\small$P_A(B)$}
%
\psline(5,2.5)(7,3)\rput(7.2,3){$C$}
\psline[linestyle=dotted](7,2)(5,2.5)(7,1.5)(5,2.5)(7,2.5)
\rput(5.9,3.1){$P_{A\cap B}(C)$}
\end{pspicture}\]](fich-IMG/76.png)
et on a alors
![\[P\lp A\cap B\cap C\rp=P(A)\tm P_A(B)\tm P_{A\cap B}(C)\]](fich-IMG/77.png)
qui est la formule des probabilités composées avec trois événements.
Cette propriété se généralise à un nombre quelconque d'événements:
Propriété: formule des probabilités composées Soit
événements
tels que
, alors
![\[P\lp\bigcap_{i=1}^nA_i\rp=
P\lp A_1\rp\tm
P_{A_1}\lp A_2\rp\tm
\dots
P_{A_1\cap A_2\cap\dots\cap A_{n-1}}\lp A_n\rp\]](fich-IMG/81.png)



![\[P\lp\bigcap_{i=1}^nA_i\rp=
P\lp A_1\rp\tm
P_{A_1}\lp A_2\rp\tm
\dots
P_{A_1\cap A_2\cap\dots\cap A_{n-1}}\lp A_n\rp\]](fich-IMG/81.png)
Exercice 6
On considère une urne contenant 4 boules blanches et 3 boules noires.
On tire une à une et sans remise 3 boules de l'urne.
Quelle est la probabilité pour que la première boule tirée soit blanche,
la seconde noire et la troisième blanche?
Correction:
On note les événements
avec
![\[\bgar{ll}P\lp A\cap B\cap C\rp&=\dfrac47\tm\dfrac12\tm\dfrac35\\[1em]&=\dfrac6{35}\enar\]](fich-IMG/91.png)
-
: "la première boule tirée est blanche"
-
: "la deuxième boule tirée est noire"
-
: "la troisième boule tirée est blanche"

- au début, il y a 7 boules dont 4 blanches,
donc
,
- ensuite, sachant
, il reste 6 boules dont 3 noires, et donc
- enfin, sachant
, il reste 5 boules dont 3 blanches, et donc
![\[\bgar{ll}P\lp A\cap B\cap C\rp&=\dfrac47\tm\dfrac12\tm\dfrac35\\[1em]&=\dfrac6{35}\enar\]](fich-IMG/91.png)
Événements indépendants
Deux événénements sont indépendants lorsque la connaissance de l'un ne change pas la probabilité de réalisation de l'autre:


![\[P_B(A)=P(A)\]](fich-IMG/94.png)
ou encore, d'après la définition de la probabilité conditionnelle
![\[\bgar{ll}&P_B(A)=\dfrac{P(A\cap B)}{P(B)}=P(A)\\[1em]
\iff & P(A\cap B)=P(A)\tm P(B)\enar\]](fich-IMG/95.png)
L'utilisation via un arbre se fait encore naturellement: les règles de constructions / calculs restent les mêmes, les probabilités indiquées sur les branches sont simplement à adapter.
Exercice 7
Voir aussi
Une information est transmise à l'intérieur d'une population.
Lorsque deux personnes communiquent, l'information est correctement transmise avec la probabilité
.
L'information contraire est donc transmise avec la probabilité
.
Bien sûr une personne transmet l'information comme il le souhaite, indépendamment du fait qu'il a, ou non, l'information correcte (ce qu'il ne sait d'ailleurs peut être pas).
Déterminer
, la probabilité que l'information soit correcte après
transmissions.


Déterminer


Correction:
On note
l'événement: "l'information est correctement transmise à la n-ième transmission".
On peut représenter la situation avec un arbre, sur lequel, à chaque répétition, les probabilités restent
et
par indépendance.
{$C_{n+1}$}\rput[l](2.7,0.5){$\overline{C_{n+1}}$}
\psline(2.5,-1.5)(1.5,-1)(2.5,-0.5)
\rput[l](2.7,-1.5){$C_{n+1}$}\rput[l](2.7,-0.5){$\overline{C_{n+1}}$}
\rput(2,1.4){$p$}
\rput(2,.5){$1-p$}
\rput(2,-.6){$p$}
\rput(2,-1.5){$1-p$}
\end{pspicture}\]](fich-IMG/103.png)
L'utilisation de cet arbre, ou la formule des probabilités totales (règle 4), nous donne alors
![\[\bgar{ll}p_{n+1}&=P\lp C_{n+1}\rp\\[.6em]
&=P\lp C_n\rp\tm P_{C_n}\lp C_{n+1}\rp
+P\lp\overline{C_n}\rp\tm P_{\overline{C_n}}\lp C_{n+1}\rp\\[.6em]
&=p_n\tm p+\lp1-p_n\rp\tm(1-p)\\[.6em]
&=(2-p)p_n+1-p
\enar\]](fich-IMG/104.png)
La suite
est donc une suite arithmético-géométrique, de limite éventuelle
avec
![\[l=(2p-1)l+1-p\iff l=\dfrac12\]](fich-IMG/107.png)
Soit alors
, telle que
![\[\bgar{ll}u_{n+1}&=p_{n+1}-\dfrac12\\
&=(2p-1)p_n+1-p-\dfrac12\\
&=(2p-1)p_n+\dfrac12-p\\
&=(2p-1)\lp p_n-\dfrac12\rp\\
&=(2p-1)u_n\enar\]](fich-IMG/109.png)
Ainsi,
est géométrique de raison
et donc
![\[u_n=u_0(2p-1)^n=\lp p_0-\dfrac12\rp(2p-1)^n\]](fich-IMG/112.png)
et finalement, en revenant à
:
![\[p_n=u_n+\dfrac12=\lp p_0-\dfrac12\rp(2p-1)^n+\dfrac12\]](fich-IMG/114.png)
On distingue alors plusieurs cas:



{$C_{n+1}$}\rput[l](2.7,0.5){$\overline{C_{n+1}}$}
\psline(2.5,-1.5)(1.5,-1)(2.5,-0.5)
\rput[l](2.7,-1.5){$C_{n+1}$}\rput[l](2.7,-0.5){$\overline{C_{n+1}}$}
\rput(2,1.4){$p$}
\rput(2,.5){$1-p$}
\rput(2,-.6){$p$}
\rput(2,-1.5){$1-p$}
\end{pspicture}\]](fich-IMG/103.png)
L'utilisation de cet arbre, ou la formule des probabilités totales (règle 4), nous donne alors
![\[\bgar{ll}p_{n+1}&=P\lp C_{n+1}\rp\\[.6em]
&=P\lp C_n\rp\tm P_{C_n}\lp C_{n+1}\rp
+P\lp\overline{C_n}\rp\tm P_{\overline{C_n}}\lp C_{n+1}\rp\\[.6em]
&=p_n\tm p+\lp1-p_n\rp\tm(1-p)\\[.6em]
&=(2-p)p_n+1-p
\enar\]](fich-IMG/104.png)
La suite


![\[l=(2p-1)l+1-p\iff l=\dfrac12\]](fich-IMG/107.png)
Soit alors

![\[\bgar{ll}u_{n+1}&=p_{n+1}-\dfrac12\\
&=(2p-1)p_n+1-p-\dfrac12\\
&=(2p-1)p_n+\dfrac12-p\\
&=(2p-1)\lp p_n-\dfrac12\rp\\
&=(2p-1)u_n\enar\]](fich-IMG/109.png)
Ainsi,


![\[u_n=u_0(2p-1)^n=\lp p_0-\dfrac12\rp(2p-1)^n\]](fich-IMG/112.png)
et finalement, en revenant à

![\[p_n=u_n+\dfrac12=\lp p_0-\dfrac12\rp(2p-1)^n+\dfrac12\]](fich-IMG/114.png)
On distingue alors plusieurs cas:
-
, alors
, et
: si l'information n'est pas transmise certainement à chaque étape, donc
et
, alors à long terme l'information est perdue, une personne à une chance sur deux d'entendre la vraie information comme son contraire
- si
, alors pour tout
,
: l'information est sûrement transmise, et la proportion de personnes qui possèdent la vraie information est constante.
- si
, alors
et
vaut alternativement
et
: tout le monde dit toujours le contraire de ce qu'il entend…
Voir aussi