Introduction

Reprenons l'exemple du tirage d'une carte dans un jeu de bridge.
Nous considérons les deux évènements suivants : On sait que P(R)=1/13 et P(H)=5/13.
Supposons maintenant que le tirage soit effectué par une tierce personne et qu'elle vous donne cette information :
"la carte tirée est un honneur".
Quelle est alors pour vous, dans ce nouvel état de connaissance (le hasard est subjectif...) la probabilité que la carte tirée soit un roi ?
La réponse est évidemment 4/20=1/5.
On peut voir encore les choses d'une autre manière ; supposons que les dos des cartes soient de couleurs différentes (rouge pour les honneurs, bleu pour les autres). Alors en tirant une carte au hasard parmi les 52 en occultant la couleur du dos vous avez une chance sur 13 de tirer un roi, mais si vous tirez volontairement une carte à dos rouge votre pourcentage de chances s'élève à 20%=1/5.
Inversement si on vous dit que la carte n'est pas un honneur, la probabilité pour que ce soit un roi tombe à 0.
La situation est un peu particulière parce que l'évènement R implique l'évènement H.
Prenons maintenant l'exemple du lancer du dé.
Soient les évènements : On a donc P(A)=P(B)=1/2.
Maintenant on peut se poser, entre autres, les questions suivantes :
  1. Quelle est la probabilité pour qu'un nombre soit premier si on sait qu'il est pair, cette probabilité se note P(A|B) ?
  2. Quelle est la probabilité pour qu'un nombre soit premier si on sait qu'il est impair, P(A|C) ?
  3. Quelle est la probabilité pour qu'un nombre soit pair si on sait qu'il est premier, P(B|A) ?
  4. Quelle est la probabilité pour qu'un nombre soit impair si on sait qu'il est premier, P(C|A) ?
Les réponses s'obtiennent dans ce cas (équiprobabilité) avec la formule Nombre de cas possibles Nombre de cas favorables
Or ici pour calculer P(X|Y) le nombre de cas possibles est card(Y) le nombre des cas possibles est card(X∩Y), d'où les réponses :
  1. 1/3
  2. 2/3
  3. 1/3
  4. 2/3
La conclusion est que les évènements A et B ne sont pas idépendants en ce sens que la connaissance de la réalisation de l'un modifie la probabilité d'apparition de l'autre.
Inversement des évènements indépendants sont des évènements pour lesquels la réalisation de l'un n'a aucune influence sur la probabilité de réalisation de l'autre. Par exemple si on prend un dé et une pièce qui ne sont pas de connivence, le lancer de la pièce n'a aucune raison d'intervenir sur le lancer du dé (et vice-versa) ainsi dans l'univers produit {P,F}×{1,2,3,4,5,6} dont les évènements ont les couples (ω12) les probabilités :
  1. P(ω2 ∈A|ω1=P)
  2. P(ω2 ∈A|ω1=F)
  3. P(ω2 ∈A))
sont toutes les mêmes et valent dans notre cas 1/2.

Définitions

Nous généralisons maintenant le concept précédent à des univers quelconques, finis ou infinis, avec des probabilités uniformes ou non.
Soit (Ω, ,P) un espace probabilisé et soit A un évènement de probabilité non nulle de .
Pour tout évènement B, on appelle 'probabilité de B sachant l'évènement A réalisé' ou encore plus simplement 'probabilité de B sachant A' le nombre :
P ( B A ) = P ( A B ) P ( A )
Remarquons tout de suite que si X est un évènement quelconque de , l'application X → P(X|A) définit une nouvelle probabilité sur Ω, pour laquelle tout évènement impliqué par A est certain et tout évènement exclusif de A est impossible.

Indépendance

Première approche de l'indépendance

Nous considérons que l'évènement B est indépendant de A si l'information 'A est réalisé' n'apporte aucune modification pour ce qui concerne la probabilité de réalisation de B, autrement dit si avec les notations ci-dessus : P(B|A)=P(B).
Par exemple pour le tirage d'une carte l'évènement B: la 'carte est un roi' est indépendant de l'évènement A: 'La carte est un carreau' car P(B|A)=P(B)=1/13.
La condition ci-dessus peut encore s'écrire P(A∩B)=P(A)P(B).
Notons tout d'abord que si B est lui-même de probabilité non nulle, la condition 'B est indépendant de A' est rigoureusement équivalente à 'A est indépendant de B'. La relation d'indépendance est donc symétrique en A et B.

Définition formelle

En vertu de ce qui précède nous adopterons la définition suivante :
Les évènements A et B sont 'indépendants' si on a la relation P(A∩B)=P(A)P(B).
Cette définition a l'avantage de mettre en relief la symétrie et d'être valide quand bien même un évènement (ou les deux) est (sont) de probabilité nulle.

Quelques propriétés évidentes

Les propriétés suivantes résultent de la définition où s'en déduisent par un calcul simple :

Extension à un nombre fini d'évènements

Une urne contient quatre jetons : un bleu, un blanc, un rouge et un tricolore bleu-blanc-rouge. On en tire un au hasard. Considérons les trois ́évènements : Il est clair que P(A) = P(B) = P(C) = 2/4 = 1/2.
D’autre part :
P(A∩B) = P(T) =1/4=P(A)P(B)
De la même façon :
P(A∩C) = P(T) =1/4=P(A)P(C)
P(B∩C) = P(T) =1/4=P(B)P(C)
Les 3 évènements A,B, C sont deux à deux indépendants, mais P(A|B∩C) = 1 car B ∩ C = T et T implique A, ce qui prouve que A n'est pas indépendant de B∩C.
La notion d'indépendance mutuelle, pour une famille finie d'évènements sera donc plus forte que celle d'indépendance deux à deux, un peu comme l'indépendance linéaire de n vecteurs est plus forte que leur indépendance deux à deux.
Soient donc n évènements A1,A2, ... , An d'un espace probabilisé (Ω,P).
On dit que les Ai sont 'mutuellement indépendants' si pour toute famille de p indices 1≤i1≤ i2≤ ... ≤ip≤n on a :
P(Ai1∩...∩Aik ) = P(Ai1)×···×P(Aik)
Il résulte de cette définition que :
Si dans une famille d'évènements mutuellement indépendants on remplace un ou plusieurs évènements par leurs contraires on obtient encore une famille d'évènements mutuellement indépendants.
Supposons pour simplifier qu'on remplace par exemple A1 par A1 dans (A1,A2, ... ,Ap) soit B=A2∩A3∩...∩Ap. Alors A1 est indépendant de B donc indépendant de A1, ce que l'on peut écrire P(A1∩B)=P(A1)×P(B)=(1-P(A1))×P(A2)×....×P(Ap)

Extension aux épreuves aléatoires

Soit une épreuve aléatoire et (Ω,,P) l'espace probabilisé associé.