Se connecter
ou

Les lois de probabilités discrètes

Dans tout le chapitre, on se place dans un univers probabilisé \(\displaystyle{\Omega}\).

I

Les probabilités conditionnelles

A

Conditionnement

Probabilité conditionnelle

Soient A et B deux événements, avec A de probabilité non nulle. On définit la probabilité conditionnelle de B sachant que l'événement A est réalisé par :

\(\displaystyle{p_{A}\left(B\right) =\dfrac{p\left(A \cap B\right)}{p\left(A\right)}}\)

Si A et B sont deux événements tels que \(\displaystyle{p\left(A\cap B\right)=0,25}\) et \(\displaystyle{p\left(A\right)=0,75}\), alors :

\(\displaystyle{p_A\left(B\right)=\dfrac{0,25}{0,75}=\dfrac13}\)

B

Indépendance

Événements indépendants

Deux événements A et B sont indépendants si et seulement si :

\(\displaystyle{p\left(A \cap B\right) = p\left(A\right) \times p\left(B\right)}\)

Considérons deux événements \(\displaystyle{A}\) et \(\displaystyle{B}\) tels que \(\displaystyle{P\left(A\right)=0,7}\) et \(\displaystyle{P\left(B\right)=0,6}\). Si \(\displaystyle{P\left(A\cap B\right)=0,42}\) alors les événements \(\displaystyle{A}\) et \(\displaystyle{B}\) sont indépendants car \(\displaystyle{P\left(A\right)\times P\left(B\right)=0,7\times 0,6=0,42=P\left(A\cap B\right)}\).

Si A et B sont deux événements indépendants, cela signifie que la réalisation de l'événement A n'a aucune incidence sur la réalisation de l'événement B et réciproquement.

Conditions d'indépendance de deux événements

Soient A et B deux événements indépendants de probabilités non nulles :

\(\displaystyle{p\left(A \cap B\right) = p\left(A\right) \times p\left(B\right)}\)

Cela signifie que :

  • \(\displaystyle{p_{A}\left(B\right) = p\left(B\right)}\)
  • \(\displaystyle{p_{B}\left(A\right) = p\left(A\right)}\)
C

La formule des probabilités totales

Partition

Soit E une partie de \(\displaystyle{\Omega}\). Les événements de probabilités non nulles \(\displaystyle{\{E_{1}, E_{2}, E_{3},..., E_{k}\}}\) forment un système complet ou une partition de E si et seulement si :

  • \(\displaystyle{E_{i} \subset E}\) pour tout entier i entre 1 et k.
  • Les événements \(\displaystyle{E_{1}, E_{2}, E_{3},..., E_{k}}\) sont deux à deux incompatibles.
  • Leur réunion est égale à l'ensemble E.

Formule des probabilités totales

Soit \(\displaystyle{{E_{1}, E_{2}, E_{3},..., E_{k}}}\) un système complet d'événements de l'univers \(\displaystyle{\Omega}\). Pour tout événement A de \(\displaystyle{\Omega}\) :

\(\displaystyle{p\left(A\right) = p\left(A \cap E_{1}\right) + p\left(A \cap E_{2}\right) + p\left(A \cap E_{3}\right) +... + p\left(A \cap E_{k}\right)}\)

D'après la formule des probabilités conditionnelles, cette expression peut s'écrire de la manière suivante:

\(\displaystyle{p\left(A\right) = p_{E_1}\left(A \right)p\left(E_1 \right) + p_{E_2}\left(A \right)p\left(E_2 \right)+...+p_{E_k}\left(A \right)p\left(E_k \right)}\)

La formule des probabilités totales peut s'illustrer à l'aide d'un arbre pondéré.

-

Dans cet exemple, \(\displaystyle{\{B, \overline{B}\}}\) forme une partition de l'univers de l'expérience. La formule des probabilités totales permet de calculer \(\displaystyle{p\left(A\right)}\) :

\(\displaystyle{p\left(A\right) = p\left(A \cap B\right) + p\left(A \cap \overline{B}\right)}\)

Soit :

\(\displaystyle{p\left(A\right) = p\left(B\right) \times p_{B}\left(A\right) + p\left(\overline{B}\right) \times p_{\overline{B}}\left(A\right)}\)

La formule des probabilités totales revient ainsi à additionner les probabilités de tous les chemins de l'arbre menant à l'événement A :

\(\displaystyle{p\left(A\right) = 0,8 \times 0,05 + 0,2 \times 0,5}\)

\(\displaystyle{p\left(A\right) = 0,14}\)

II

Les lois de probabilité discrètes

A

Les variables aléatoires

Variable aléatoire

Une variable aléatoire réelle est une fonction qui associe un réel à chaque événement élémentaire de l'univers d'une expérience aléatoire.

Loi de probabilité

Soit X une variable aléatoire prenant les valeurs : \(\displaystyle{X\left(\Omega\right) = \left\{ {x_{1}, x_{2},..., x_{n}} \right\}}\). La loi de probabilité de X associe à chaque réel \(\displaystyle{x_{i}}\) la probabilité \(\displaystyle{p\left(\left\{ X = x_{i} \right\}\right)}\), que l'on peut noter en abrégé \(\displaystyle{p\left(X = x_{i}\right)}\).

On présente en général une loi de probabilité à l'aide d'un tableau.

\(\displaystyle{x_{i}}\) \(\displaystyle{x_{1}}\) \(\displaystyle{x_{2}}\) ... \(\displaystyle{x_{n}}\)
\(\displaystyle{p\left(X = x_{i}\right)}\) \(\displaystyle{p\left(X = x_{1}\right)}\) \(\displaystyle{p\left(X = x_{2}\right)}\) ... \(\displaystyle{p\left(X = x_{n}\right)}\)
\(\displaystyle{x_i}\) −2 1 3 5
\(\displaystyle{p\left(X=x_i\right)}\) 0,25 0,10 0,50 0,15

Si X est une variable aléatoire telle que \(\displaystyle{X\left(\Omega\right)=\left\{ x_1;x_2;...;x_n \right\}}\), alors :

\(\displaystyle{p\left(X = x_{1}\right) + p\left(X = x_{2}\right) +... + p\left(X = x_{n}\right) = 1}\)

Dans la loi de probabilité suivante :

\(\displaystyle{x_i}\) −2 1 3 5
\(\displaystyle{p\left(X=x_i\right)}\) 0,25 0,10 0,50 0,15

On a bien :

\(\displaystyle{0,25+0,10+0,50+,015=1}\)

Espérance

L'espérance d'une variable aléatoire \(\displaystyle{X}\) prenant pour valeurs \(\displaystyle{x_0}\), \(\displaystyle{x_1}\),... \(\displaystyle{x_n}\) est le réel :

\(\displaystyle{E\left(X\right) =\sum _{i=0}^{n}x_{i} P\left(X = x_{i}\right)=x_{0} P\left(X = x_{0}\right)+x_{1} P\left(X = x_{1}\right)+...+x_{n} P\left(X = x_{n}\right)}\)

Dans la loi de probabilité suivante :

\(\displaystyle{x_i}\) −2 1 3 5
\(\displaystyle{P\left(X=x_i\right)}\) 0,25 0,10 0,50 0,15

On calcule :

\(\displaystyle{E\left(X\right)=-2\times0,25+1\times0,10+3\times0,50+5\times0,15=1,85}\)

Pour tous réels a et b :

\(\displaystyle{E\left(aX + b\right) = aE\left(X\right) + b}\)

Soit une variable aléatoire X telle que \(\displaystyle{E\left(X\right)=1,5}\), et soit la variable aléatoire Y définie par \(\displaystyle{Y=2X-1}\). On a :

\(\displaystyle{E\left(Y\right)=E\left(2X-1\right)=2\times E\left(X\right)-1=2\times 1,5-1=2}\)

Variance

La variance d'une variable aléatoire \(\displaystyle{X}\) prenant pour valeurs \(\displaystyle{x_0}\), \(\displaystyle{x_1}\), ... \(\displaystyle{x_n}\) est le réel :

\(\displaystyle{V\left(X\right) =\sum _{i=0}^{n}\left[x_{i} - E\left(X\right)\right]^{2} P\left(X = x_{i}\right)}\)

On considère la loi de probabilité suivante :

\(\displaystyle{x_i}\) −2 1 3 5
\(\displaystyle{P\left(X=x_i\right)}\) 0,25 0,10 0,50 0,15

On calcule d'abord l'espérance :

\(\displaystyle{E\left(X\right)=-2\times0,25+1\times0,10+3\times0,50+5\times0,15=1,85}\)

On peut ensuite calculer la variance :

\(\displaystyle{V\left(x\right)=\left(-2-1,85\right)^2\times 0,25+\left(1-1,85\right)^2\times 0,10+\left(3-1,85\right)^2\times0,50+\left(5-1,85\right)^2\times0,15=5,9275}\)

Avec les notations précédentes, la variance de la variable aléatoire X peut également se calculer de la façon suivante :

\(\displaystyle{V\left(X\right) =\sum _{i=0}^{n}\left(x_{i} \right)^{2} P\left(X = x_{i}\right)-\left[ E\left(x\right) \right]^2}\)

En reprenant l'exemple précédent, on a :

\(\displaystyle{V\left(x\right)=\left(-2\right)^2\times 0,25+1^2\times 0,10+3^2\times0,50+5^2\times0,15-\left(1,85\right)^2=5,9275}\)

Pour tous réels a et b :

\(\displaystyle{V\left(aX + b\right) = a^{2}V\left(X\right)}\)

Soit une variable aléatoire X telle que \(\displaystyle{V\left(X\right)=1,5}\). Soit la variable aléatoire Y définie par \(\displaystyle{Y=2X-1}\). On a :

\(\displaystyle{V\left(Y\right)=V\left(2X-1\right)=2^2\times V\left(X\right)=4\times 1,5=6}\)

Écart-type

L'écart-type d'une variable aléatoire X est le réel :

\(\displaystyle{σ\left(X\right) =\sqrt{V\left(X\right)}}\)

Si X est une variable aléatoire telle que \(\displaystyle{V \left(X\right)=64}\), alors :

\(\displaystyle{\sigma \left(X\right)=\sqrt{V\left(X\right)}=\sqrt{64}=8}\)

B

La loi de Bernoulli

Épreuve de Bernoulli

Soit un réel p compris entre 0 et 1. Une épreuve de Bernoulli est une expérience aléatoire ne présentant que deux issues possibles :

  • Succès, obtenu avec la probabilité p (nombre réel compris entre 0 et 1)
  • Échec, obtenu avec la probabilité \(\displaystyle{1 - p}\)

On choisit au hasard une paire de lunettes dans la production d'une usine et on regarde son état. On considère que 5% des lunettes sont défectueuses.

Cela constitue une épreuve de Bernoulli dont le succès est : "les lunettes choisies sont défectueuses", de probabilité \(\displaystyle{p=0,05}\).

Loi de Bernoulli

Soit un réel p compris entre 0 et 1.
Une variable aléatoire X suit la loi de Bernoulli de paramètre p si :

  • \(\displaystyle{X\left(\Omega\right) = \{0 ; 1\}}\)
  • \(\displaystyle{P\left(X = 1\right) = p}\) et \(\displaystyle{P\left(X = 0\right) = 1 - p}\)

Espérance et variance d'une loi de Bernoulli

Si X suit la loi de Bernoulli de paramètre p, on a :

\(\displaystyle{E\left(X\right) = p}\)

\(\displaystyle{V\left(X\right) = p\left(1 - p\right)}\)

Si X suit la loi de Bernoulli de paramètre \(\displaystyle{p=0,05}\), on a :

  • \(\displaystyle{E\left(X\right)=0,05}\)
  • \(\displaystyle{V\left(X\right)=0,05\times0,95=0,0475}\)
C

La loi binomiale

Loi binomiale

On appelle schéma de Bernoulli la répétition un certain nombre de fois d'une même épreuve de Bernoulli de façon indépendante. Notons n le nombre de répétitions et p le paramètre de l'épreuve de Bernoulli. La loi de probabilité de la variable aléatoire X qui à chaque réalisation du schéma de Bernoulli associe le nombre de succès est appelée loi binomiale de paramètres n et p, et notée \(\displaystyle{B\left(n;p\right)}\).

On choisit successivement, de manière aléatoire et indépendante, 10 paires de lunettes dans la production d'une usine. La production de lunettes est suffisamment importante pour considérer le tirage avec remise. On considère que 5% des lunettes sont défectueuses.

Cela constitue la répétition de \(\displaystyle{n=10}\) épreuves de Bernoulli dont le succès est : "les lunettes choisies sont défectueuses", de probabilité \(\displaystyle{p=0,05}\).

La variable aléatoire X qui, à chaque échantillon de 10 lunettes prises dans la production associe le nombre de lunettes défectueuses, suit la loi binomiale de paramètres \(\displaystyle{n=10}\) et \(\displaystyle{p=0,05}\).

Si une variable aléatoire X suit la loi binomiale de paramètres n et p, on a :

  • \(\displaystyle{X\left(\Omega\right) =\left\{ 0;1;...;n \right\}}\)
  • \(\displaystyle{p\left(X = k\right) =\binom{n}{k}p^{k} \left(1 - p\right)^{n-k}}\) pour tout k de \(\displaystyle{X\left(\Omega\right) }\)

Le coefficient \(\displaystyle{\binom{n}{k}}\), égal au nombre de possibilités de placer les k succès parmi les n répétitions, est appelé coefficient binomial.

Dans l'exemple précédent, on peut calculer la probabilité de choisir 2 paires défectueuses :

\(\displaystyle{p\left(X=2\right)=\binom{10}{2}\times 0,05^2\times0,95^8\approx0,0746}\)

Espérance et variance d'une loi binomiale

Si une variable aléatoire X suit la loi binomiale de paramètres n et p, on a :

\(\displaystyle{E\left(X\right) = np}\)

\(\displaystyle{V\left(X\right) = np\left(1 - p\right)}\)

Si la variable aléatoire \(\displaystyle{X}\) suit la loi binomiale de paramètres \(\displaystyle{n=10}\) et \(\displaystyle{p=0,05}\), alors :

  • \(\displaystyle{E\left(X\right)=10\times0,05=0,5}\)
  • \(\displaystyle{V\left(X\right)=10\times0,05\times0,95=0,475}\)