Définition 1 (Variable aléatoire, v.a.) Soit \((E, \mathcal{E})\) un espace mesurable. Une variable aléatoire est une application mesurable \[
\begin{array}{ccccc}
X & : & \Omega & \to & E \\
& & \omega & \mapsto & X(\omega)\,.
\end{array}
\] Ainsi \(\{\omega \in \Omega : X(\omega) \in B\} = X^{-1}(B) = \{X \in B\} \in \mathcal{F}, \forall B \in \mathcal{E}\)
Loi d’une variable aléatoire (unidimensionnelle)
Définition 2 (Loi d’une variable aléatoire)
Soit \(X : (\Omega, \mathcal{F}, \mathbb{P}) \to (E, \mathcal{E})\) une v.a. On appelle loi de \(X\) la mesure de probabilité sur \((E, \mathcal{E})\) définie par \[
\begin{array}{ccccc}
\mathbb{P}_X & : & \mathcal{E} & \to & [0,1] \\
& & B & \mapsto & \mathbb{P}(X \in B) \enspace.
\end{array}
\]
Note
Les propriétés de \(\mathbb{P}\) assurent que \(\mathbb{P}_X\) est bien une mesure de probabilité sur l’espace mesurable \((E, \mathcal{E})\)
Variables usuelles
Lois discrètes
Les variables aléatoires discrètes sont celles à valeurs dans un ensemble \(E\) discret, le plus souvent \(\mathbb{N}\), muni de la tribu pleine \(\mathcal{F} = \mathcal{P}(E)\).
Exemple 1 (Loi de Bernoulli) Soit un paramètre \(p \in [0,1]\), et \(E=\{0,1\}\), alors la loi de Bernouilli est donnée par \(\mathbb{P}(X=1)=1-\mathbb{P}(X=0) = p\).
Notation:\(\quad\)\(X \sim \mathcal{B}(p)\)
Exemple physique: loi d’un tirage de pile ou face, de biais \(p\)
Exemple 2 (Loi binomiale) Soient \(p \in [0,1]\) (biais) et \(n \in \mathbb{N}^*\) (nombre de tirages) alors la loi Binomiale est donnée par \(\mathbb{P}(X=k) = \binom{n}{k} p^k (1-p)^{n-k}\), pour \(k \in E=\{0,\dots,n\}\).
Notation:\(\quad\)\(X \sim \mathcal{B}(n,p)\)
Exemple physique: loi du nombre de succès obtenus lors de \(n\) répétitions indépendantes d’une expérience aléatoire de Bernoulli de paramètre \(p\)
Lois discrètes (II)
Exemple 3 (Loi géométrique) Soient \(p \in [0,1]\) (biais), alors la loi géométrique est donnée par \(\mathbb{P}(X=k) = p (1-p)^{k-1}\), pour \(k \in E=\mathbb{N}^*\).
Notation:\(\quad\)\(X \sim \mathcal{G}(p)\)
Exemple physique:
loi du nombre tirage nécessaire avant d’obtenir un succès obtenus en répétant indépendamment des expériences aléatoires de Bernoulli de paramètre \(p\)
Exemple 4 (Loi de Poisson) Pour \(\lambda>0\), la loi de Poisson de paramètre \(\lambda\) est définie par \(\mathbb{P}(X=k) = e^{-\lambda} \lambda^k / k!\), pour tout \(k \in E=\mathbb{N}\).
Notation:\(\quad\)\(X \sim \mathcal{P}(\lambda)\)
Exemple physique: comportement du nombre d’événements se produisant avec une fréquence connue, et indépendamment du temps écoulé depuis l’événement précédent (e.g., nombre de clients dans une file d’attente, nombre de mutations dans un gène, etc.)
Lois continues
Loi d’une v.a. admettant une fonction de densité, c’est-à-dire qu’il existe une fonction mesurable \(f : \mathbb{R} \to [0, \infty[\) d’intégrale \(1\), telle que pour tout \(A \in \mathcal{B}(\mathbb{R})\)\[
\mathbb{P}(X \in A) = \int_A f(x) dx \enspace.
\]
Note
Les propriétés de l’intégrale de Lebesgue assurent que cette formule définit bien une loi de probabilité.
Espérance: \(\mathbb{E}(X) = \displaystyle\int_{\mathbb{R}} x f(x) dx\)
Exemple 5 (Loi uniforme) La loi uniforme sur un ensemble \(B \in \mathcal{B}(\mathbb{R})\), s’obtient avec la densité définie par \[
f(x) = {1\hspace{-3.8pt} 1}_B(x) / \lambda (B) \enspace,
\] où \(\lambda (B)\) représente la mesure de Lebesgue de l’ensemble \(B\).
Cas particulier: pour la loi uniforme sur \([0,1]\), on obtient la fonction suivante: \[
f(x) = {1\hspace{-3.8pt} 1}_{[0,1]}(x)\enspace.
\]Notation:\(\quad\)\(X \sim \mathcal{U}([0,1])\)
Note
Une telle loi est caractérisée ainsi : tous les intervalles de même longueur inclus dans le support de la loi ont la même probabilité.
Lois continues usuelles (II)
Exemple 6 (Loi exponentielle) La loi exponentielle de paramètre \(\gamma > 0\) est obtenue avec la densité donnée par \[
f(x) = \gamma e^{-\gamma x} {1\hspace{-3.8pt} 1}_{\mathbb{R}_+}(x)\enspace.
\]Notation:\(\quad X \sim \mathcal{Exp}(\gamma)\)
Proposition 1 (Absence de mémoire) La loi exponentielle modélise la durée de vie d’un phénomène sans mémoire (ou sans vieillissement), c’est-à-dire que pour tout \(s,t>0\), on a \[
\mathbb{P}(X>t+s | X>t)=\mathbb{P}(X>s) \enspace.
\]
Lois continues usuelles (III)
Exemple 7 (Loi normale/gaussienne univariée) Pour des paramètres \(\mu \in \mathbb{R}\) (espérance) et \(\sigma^2 > 0\) (variance), la loi normale associée correspond à la fonction de densité : \[
f(x) = \frac{1}{\sqrt{2 \pi \sigma^2}}e^{-\frac{1}{2 \sigma^2}(x-\mu)^2} \enspace.
\]Notation:\(X \sim \mathcal{N}(\mu,\sigma^2)\),
On nomme loi normale centrée réduite le cas canonique: \(\mu = 0, \sigma^2 = 1\).
Si \(X\sim \mathcal{N}(\mu,\sigma^2)\), alors l’espérance et la variance de \(X\) valent \(\mathbb{E}(X) = \mu\) et \(\mathbb{V}(X) = \sigma^2\).
Note
Les lois normales sont omniprésente grâce au théorème central limite.
Fonction de répartition et quantiles
Enjeu de la fonction de répartition
Enjeux: caractériser la loi d’une v.a. en ne considérant que l’espace d’arrivée \((E, \mathcal{E})\)
Outils:
la fonction de répartition (v.a. réelles),
la fonction caractéristique (v.a. dans \(\mathbb{R}^d\)), en gros la transformée de Fourier de la loi!
la fonction génératrice des moments (v.a. discrètes)
etc.
Fonction de répartition
Définition 3 (Fonction de répartition 🇬🇧: cumulative distribution function)
Soit \(X\) une variable aléatoire sur \((\mathbb{R}, \mathcal{B}(\mathbb{R}))\). La fonction de répartition de \(X\) est la fonction \(F_X\) définie sur \(\mathbb{R}\) par \[
\begin{align*}
F_X(x) & = \mathbb{P}(X \leq x)\\
& \class{fragment}{{} = \mathbb{P}(X \in ]-\infty, x])}
\end{align*}
\]
Propriété élémentaire de la fonction de répartition
Proposition 2 (Propriétés élémentaires) Soit \(X\) une v.a. de fonction de répartition \(F_X\).
\(F_X\) est une fonction croissante, de limite \(0\) en \(-\infty\) et de limite \(1\) en \(+\infty\).
\(F_X\) est continue à droite en tout point.
\(\forall x \in \mathbb{R}\), on a \(\mathbb{P}(X=x) = F_X(x) - \lim_{\epsilon \to 0+}F_X(x- \epsilon)\).
Si \(X\) a pour densité \(f\), alors \(F_X\) est dérivable \(\lambda\)-presque partout de dérivée \(f\).
Prop. 1. et 2. : \(F_X\) est càdlàg (continue à droite, limite à gauche).
Prop 3. (cas discret): les valeurs prises par \(X\) correspondent aux discontinuités de \(F_X\), les probabilités, à la hauteur du saut.
Prop. 4. (cas continu): le lien entre la fonction de répartition et densité.
Fonction de répartition et caractérisation de la loi
Théorème 1 (Caractérisation de la loi d’une variable aléatoire réelle)
La fonction de répartition d’une variable aléatoire caractérise sa loi : deux variables aléatoires ont même loi si et seulement si elles ont même fonction de répartition.
Rappel: la tribu des boréliens est engendrée par la famille d’ensembles \(\{]-\infty,x], x \in \mathbb{R}\}\)
Interprétation: connaître \(\mathbb{P}_X\) sur cette famille d’ensembles \(\implies\) la connaître partout
Fonction de répartition: cas discret
Dans le cas d’une loi discrète, la fonction de répartition est une fonction en escalier, constante par morceaux, et croissante.
Exemple 8 (Cas discret) Soit \((x_i)_{i \in I}\) une suite ordonnée de réels, avec \(I \subset \mathbb{N}\). Si \(X\) est une variable aléatoire discrète prenant les valeurs \((x_i)_{i \in I}\) et de loi \((p_i = \mathbb{P}(X=x_i))_{i \in I}\), alors \[
\forall x \in \mathbb{R}, \quad F_X(x) = \sum_{i \in I} p_i {1\hspace{-3.8pt} 1}_{[x_i, \infty[}(x) \enspace.
\]
Fonction de répartition: cas continu
Exemple 9 (Cas continu) Si \(X\) est une variable aléatoire de densité \(f\), alors \[
\forall x \in \mathbb{R}, \quad F_X(x) = \int_{-\infty}^x f(t) \, \mathrm dt \enspace.
\]
Vocabulaire: densité (🇬🇧: probability density function)
Loi normale
Cas de la loi normale centrée réduite, \(X \sim \mathcal{N}(0,1)\): \(F_X=\Phi\), avec \(\Phi\) définie par \[
F_X(x) \triangleq \Phi(x) = \dfrac{1}{\sqrt{2\pi}} \int_{-\infty}^x e^{-\frac{t^2}{2}}\, \mathrm d t\enspace,
\]
Note
L’intégrale ne peut être obtenue à partir d’une formule fermée1. Autrefois, les valeurs de \(\Phi(x)\) étaient reportées dans des tables2.
Transformation affine: si \(X \sim \mathcal{N}(\mu, \sigma^2)\) — i.e., \(X=\mu + \sigma Y\), avec \(Y\sim \mathcal{N}(0,1)\) — alors \[
F_X(x)=\Phi\left(\frac{x-\mu}{\sigma}\right)
\]
Fonction quantile, inverse généralisée à gauche
Définition 4 (Fonction quantile/ inverse généralisée 🇬🇧: quantile distribution function)
Soit \(X\) une variable aléatoire sur \((\mathbb{R}, \mathcal{B}(\mathbb{R}))\) et \(F_X\) sa fonction de répartion. La fonction quantile associée \(F_X^\leftarrow: ]0,1[ \rightarrow \mathbb{R}\) est définie par \[
F_X^\leftarrow(p) = \inf\{ x \in \mathbb{R} : F_X(x)\geq p\} \enspace.
\]
\(F_X\) est bijective \(\implies\)\(F^{-1}=F_X^\leftarrow\)
Vocabulaire:
la fonction quantile s’appelle aussi inverse de Levy ou inverse généralisée (à gauche)