Se connecter
ou

Les lois de probabilités discrètes

I

Les probabilités conditionnelles

Dans toute cette partie, on considère un univers probabilisé \(\displaystyle{\Omega}\).

A

Conditionnement

Probabilité conditionnelle

Soient A et B deux événements, avec A de probabilité non nulle. On définit la probabilité conditionnelle de B sachant que l'événement A est réalisé par :

\(\displaystyle{p_{A}\left(B\right) =\dfrac{p\left(A \cap B\right)}{p\left(A\right)}}\)

Si \(\displaystyle{p\left(A\cap B\right)=0,25}\) et \(\displaystyle{p\left(A\right)=0,75}\) alors :

\(\displaystyle{p_A\left(B\right)=\dfrac{0,25}{0,75}=\dfrac13}\)

B

Indépendance

Evénements indépendants

Deux événements A et B sont indépendants si et seulement si :

\(\displaystyle{p\left(A \cap B\right) = p\left(A\right) \times p\left(B\right)}\)

Considérons deux événements A et B tels que \(\displaystyle{p\left(A\right)=0,7}\) et \(\displaystyle{p\left(B\right)=0,6}\). On sait de plus que \(\displaystyle{p\left(A\cap B\right)=0,42}\). On a :

\(\displaystyle{p\left(A\right)\times p\left(B\right)=0,7\times 0,6=0,42=p\left(A\cap B\right)}\)

Les événements A et B sont donc indépendants.

Conditions d'indépendance de deux événements

Soient A et B deux événements indépendants de probabilités non nulles. On a :

  • \(\displaystyle{p\left(A \cap B\right) = p\left(A\right) \times p\left(B\right)}\)
  • \(\displaystyle{p_{A}\left(B\right) = p\left(B\right)}\)
  • \(\displaystyle{p_{B}\left(A\right) = p\left(A\right)}\)
C

La formule des probabilités totales

Partition

Soit un ensemble \(\displaystyle{\Omega}\). Les événements de probabilités non nulles \(\displaystyle{\{E_{1}, E_{2}, E_{3},..., E_{k}\}}\) forment un système complet ou une partition de \(\displaystyle{\Omega}\) si et seulement si les trois conditions suivantes sont vérifiées :

  • \(\displaystyle{E_{i} \subset \Omega}\) pour tout entier i compris entre 1 et k
  • Les événements \(\displaystyle{E_{1}, E_{2}, E_{3},..., E_{k}}\) sont deux à deux incompatibles
  • Leur réunion est égale à l'ensemble \(\displaystyle{\Omega}\)
-

Formule des probabilités totales

Soit \(\displaystyle{\{E_{1}, E_{2}, E_{3},..., E_{k}\}}\) un système complet d'événements de l'univers \(\displaystyle{\Omega}\). Pour tout événement A :

\(\displaystyle{p\left(A\right) = p\left(A \cap E_{1}\right) + p\left(A \cap E_{2}\right) + p\left(A \cap E_{3}\right) +... + p\left(A \cap E_{k}\right)}\)

En appliquant ensuite la formule des probabilités conditionnelles, on obtient l'expression suivante :

\(\displaystyle{p\left(A\right) = p_{E_1}\left(A \right)p\left(E_1 \right) + p_{E_2}\left(A \right)p\left(E_2 \right)+...+p_{E_k}\left(A \right)p\left(E_k \right)}\)

La formule des probabilités totales peut s'illustrer à l'aide d'un arbre pondéré.

-

Dans cet exemple, les événements B et \(\displaystyle{\overline{B}}\) forment une partition de l'univers. La formule des probabilités totales permet de calculer \(\displaystyle{p\left(A\right)}\) :

\(\displaystyle{p\left(A\right) = p\left(A \cap B\right) + p\left(A \cap \overline{B}\right)}\)

Soit :

\(\displaystyle{p\left(A\right) = p\left(B\right) \times p_{B}\left(A\right) + p\left(\overline{B}\right) \times p_{\overline{B}}\left(A\right)}\)

La formule des probabilités totales revient ainsi à additionner les probabilités de tous les chemins de l'arbre menant à l'événement A :

\(\displaystyle{p\left(A\right) = 0,8 \times 0,05 + 0,2 \times 0,5}\)

\(\displaystyle{p\left(A\right) = 0,14}\)

II

Les lois de probabilité discrètes

A

Les variables aléatoires

Variable aléatoire

Une variable aléatoire réelle est une fonction qui associe un réel à chaque événement élémentaire de l'univers d'une expérience aléatoire.

Loi de probabilité

Soit X une variable aléatoire telle que \(\displaystyle{X\left(\Omega\right) = \left\{ x_{1}, x_{2},..., x_{n} \right\}}\). La loi de probabilité de X associe à chaque réel \(\displaystyle{x_{i}}\) la probabilité \(\displaystyle{p\left(\left\{ X = x_{i} \right\}\right)}\), que l'on peut noter en abrégé \(\displaystyle{p\left(X = x_{i}\right)}\).

On présente en général une loi de probabilité à l'aide d'un tableau.

\(\displaystyle{x_{i}}\) \(\displaystyle{x_{1}}\) \(\displaystyle{x_{2}}\) ... \(\displaystyle{x_{n}}\)
\(\displaystyle{p\left(X = x_{i}\right)}\) \(\displaystyle{p\left(X = x_{1}\right)}\) \(\displaystyle{p\left(X = x_{2}\right)}\) ... \(\displaystyle{p\left(X = x_{n}\right)}\)

Le tableau suivant présente la loi de probabilité d'une variable aléatoire X :

\(\displaystyle{x_i}\) −2 1 3 5
\(\displaystyle{p\left(X=x_i\right)}\) 0,25 0,10 0,50 0,15

Si X est une variable aléatoire telle que \(\displaystyle{X\left(\Omega\right) = \left\{ x_{1}, x_{2},..., x_{n} \right\}}\), alors :

\(\displaystyle{p\left(X = x_{1}\right) + p\left(X = x_{2}\right) +... + p\left(X = x_{n}\right) = 1}\)

En reprenant la loi de probabilité suivante :

\(\displaystyle{x_i}\) −2 1 3 5
\(\displaystyle{p\left(X=x_i\right)}\) 0,25 0,10 0,50 0,15

On vérifie que l'on a bien :

\(\displaystyle{0,25+0,10+0,50+,015=1}\)

Espérance

L'espérance d'une variable aléatoire \(\displaystyle{X}\) prenant pour valeurs \(\displaystyle{x_0}\), \(\displaystyle{x_1}\),..., \(\displaystyle{x_n}\) est le réel :

\(\displaystyle{E\left(X\right) =\sum _{i=0}^{n}x_{i} p\left(X = x_{i}\right)}\)

Soit :

\(\displaystyle{E\left(X\right) = x_{0} p\left(X = x_{0}\right) + x_{1} p\left(X = x_{1}\right) +... + x_{n} p\left(X = x_{n}\right)}\)

En reprenant la loi de probabilité suivante :

\(\displaystyle{x_i}\) −2 1 3 5
\(\displaystyle{p\left(X=x_i\right)}\) 0,25 0,10 0,50 0,15

On peut calculer l'espérance :

\(\displaystyle{E\left(X\right)=-2\times0,25+1\times0,10+3\times0,50+5\times0,15=1,85}\)

B

La loi de Bernoulli

Epreuve de Bernoulli

Une épreuve de Bernoulli est une expérience aléatoire ne présentant que deux issues possibles :

  • Succès, obtenu avec une probabilité p (p étant un réel compris entre 0 et 1)
  • Echec, obtenu avec la probabilité \(\displaystyle{1 - p}\)

On choisit au hasard une paire de lunettes dans la production d'une usine. On considère que 5% des lunettes sont défectueuses.
Cela constitue une épreuve de Bernoulli dont le succès est : "la paire de lunettes choisie est défectueuse", de probabilité \(\displaystyle{p=0,05}\).

Loi de Bernoulli

Soit un réel p compris entre 0 et 1. Une variable aléatoire X suit la loi de Bernoulli de paramètre p si et seulement si :

  • \(\displaystyle{X\left(\Omega\right) = \{0 ; 1\}}\)
  • \(\displaystyle{p\left(X = 1\right) = p}\) et \(\displaystyle{p\left(X = 0\right) = 1 - p}\)

On choisit au hasard une paire de lunettes dans la production d'une usine. On considère que 5% des lunettes sont défectueuses. X est la variable aléatoire qui prend la valeur 1 si la paire de lunettes choisie est défectueuse, et qui prend la valeur 0 sinon.

On a bien :

  • \(\displaystyle{X\left(\Omega\right) = \{0 ; 1\}}\)
  • \(\displaystyle{p\left(X = 1\right) = 0,05}\) et \(\displaystyle{p\left(X = 0\right) = 0,95}\)

Donc X suit la loi de Bernoulli de paramètre 0,05.

Espérance d'une loi de Bernoulli

Si X suit la loi de Bernoulli de paramètre p, on a :

\(\displaystyle{E\left(X\right) = p}\)

Soir une variable aléatoire X suivant la loi de Bernoulli de paramètre 0,05. On a :

\(\displaystyle{E\left(X\right)=0,05}\)

C

La loi binomiale

Loi binomiale

On appelle schéma de Bernoulli la répétition un certain nombre de fois d'une même épreuve de Bernoulli de façon indépendante. Notons n le nombre de répétitions et p le paramètre de l'épreuve de Bernoulli. La loi de probabilité de la variable aléatoire X qui à chaque réalisation du schéma de Bernoulli associe le nombre de succès est appelée loi binomiale de paramètres n et p, et notée \(\displaystyle{B\left(n;p\right)}\).

On choisit successivement, de manière aléatoire et indépendante, 10 paires de lunettes dans la production d'une usine. On considère que 5% des lunettes sont défectueuses.

Cela constitue la répétition de \(\displaystyle{n=10}\) épreuves de Bernoulli dont le succès est : "les lunettes choisies sont défectueuses", de probabilité \(\displaystyle{p=0,05}\).

La variable aléatoire \(\displaystyle{X}\) qui compte le nombre de lunettes défectueuses suit donc la loi binomiale de paramètres \(\displaystyle{n=10}\) et \(\displaystyle{p=0,05}\).

Si une variable aléatoire X suit la loi binomiale de paramètres n et p, on a :

  • \(\displaystyle{X\left(\Omega\right)=\left\{ 0;1;2;...;n \right\}}\)
  • Pour tout entier k appartenant à \(\displaystyle{X\left(\Omega\right)}\), \(\displaystyle{p\left(X=k\right)=\dbinom{n}{k}p^k\left(1-p\right)^{n-k}}\)

Le coefficient \(\displaystyle{\dbinom{n}{k}}\), égal au nombre de possibilités de placer les k succès parmi les n répétitions, est appelé coefficient binomial.

En reprenant l'exemple précédent, on peut calculer :

\(\displaystyle{P\left(X=2\right)=\binom{10}{2}\times 0,05^2\times0,95^8\approx0,0746}\)

Espérance d'une loi binomiale

Si X suit la loi binomiale de paramètres n et p, on a :

\(\displaystyle{E\left(X\right) = np}\)

Si la variable aléatoire X suit la loi binomiale de paramètres \(\displaystyle{n=10}\) et \(\displaystyle{p=0,05}\), alors :

\(\displaystyle{E\left(X\right)=10\times0,05=0,5}\)