HAX603X: Modélisation stochastique
Pour \(\mu \in \mathbb{R}\) et \(\nu > 0\), on note \(X \sim \mathcal{N}(\mu, \nu)\), si \(X\) est une variable aléatoire ayant pour densité \(\varphi_{\mu, \nu}\):
\[ \forall x \in \mathbb{R}, \quad \varphi_{\mu, \nu}(x)=\frac{1}{\sqrt{2 \pi \nu}}\exp\Big(-\frac{(x-\mu)^2}{2\nu}\Big)\enspace. \]
On parle aussi de loi gaussienne, en hommage au mathématicien Carl Friedrich Gauss, le prince des mathématiciens: (1777-1855) mathématicien, astronome et physicien né à Brunswick, directeur de l’observatoire de Göttingen de 1807 jusqu’à sa mort en 1855
voir https://josephsalmon.github.io/HAX603X/Courses/loi_normale1D.html
stabilité par transformation affine :
si \(X \sim \mathcal{N}(\mu, \nu)\) et si \((\alpha,\beta) \in \mathbb{R}^* \times \mathbb{R}\), alors \(\alpha X + \beta \sim \mathcal{N}(\alpha\mu + \beta, \alpha^2 \nu)\).
Proposition 1 (Fonction caractéristique de la loi normale) La fonction caractéristique d’une variable aléatoire \(X \sim \mathcal{N}(\mu, \nu)\) est donnée pour tout \(t \in \mathbb{R}\) par \[ \begin{align*} \phi_{\mu,\nu}(t) & \triangleq \mathbb{E}(e^{i t X}) = \exp\Big( i \mu t - \frac{\nu t^2}{2}\Big)\enspace. \end{align*} \]
Cas particulier: si \(X \sim \mathcal{N}(0,1)\), alors \(\phi_{0,1}(t) = \exp\Big( - \frac{t^2}{2}\Big)\)
Éléments de preuve: pour tout \(z \in \mathbb{R}\), on calcule la transformée de Laplace, puis on l’étend ensuite sur \(\mathbb{C}\), et on l’instancie pour \(z=it\).
\[ \begin{align*} \class{fragment}{{}\mathbb{E}[e^{zX}]}& \class{fragment}{{}=\frac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty e^{-\frac12x^2}e^{zx}\,dx} \class{fragment}{{}= \frac{e^{\frac12z^2}}{\sqrt{2\pi}}\int_{-\infty}^\infty e^{-\frac12(x-z)^2}\,dx}\\ &\class{fragment}{{}=\frac{e^{\frac12z^2}}{\sqrt{2\pi}}\int_{-\infty}^\infty e^{-\frac12y^2}\,dy}\class{fragment}{{} =e^{\frac12z^2}} \end{align*} \]
Méthode de l’inverse: besoin d’un calcul de la fonction de répartition de la loi normale, qui n’a pas de forme analytique simple (analyse numérique, méthode coûteuse).
TCL: tirer \(U_1, \dots, U_n\) i.i.d. et uniforme sur \([0,1]\), puis poser \[ \sqrt{n}\frac{(\bar{U}_n - 1/2)}{\sqrt{1/12}} \] Limite: seulement une approximation, et convergence relativement lente (coût élevé)
Alternatives: nécessite opérations de changement de variables
Soit \(\phi\) un \(C^1\)-difféomorphisme de \(\mathbb{R}^2\) (bijection dont la réciproque est également de classe \(C^1\))
Rappel: la jacobienne de \(\phi^{-1}\) correspond à la matrice (application linéaire) des dérivées partielles. Ainsi, si \(\phi(x,y) = (u,v) \iff (x,y) = \phi^{-1}(u,v)\), alors \[ \begin{align*} {\rm{J}}_{\phi^{-1}}: (u,v) & \mapsto \begin{pmatrix} \frac{\partial x}{\partial u} & \frac{\partial x}{\partial v} \\ \frac{\partial y}{\partial u} & \frac{\partial y}{\partial v} \end{pmatrix} \in \mathbb{R}^{2\times 2} \end{align*} \]
Théorème 1 (Caractérisation de la loi d’une variable aléatoire réelle) Soit \((X,Y)\) un vecteur aléatoire de densité \(f_{(X,Y)}\) définie sur l’ouvert \(A \subset \mathbb{R}^2\) et \(\phi : A \to B \subset \mathbb{R}^2\) un \(C^1\)-difféomorphisme. Le vecteur aléatoire \((U,V)=\phi(X,Y)\) admet alors pour densité \(f_{(U,V)}\) définie sur \(B\) pour tout \((u,v) \in \mathbb{R}^2\) par \[ \begin{align*} (u,v) & \mapsto f_{(X,Y)} (\phi^{-1}(u,v)) |\det ({\rm{J}}_{\phi^{-1}} (u,v))| {1\hspace{-3.8pt} 1}_B(u,v) \end{align*} \]
Remarque: le résultat s’étend facilement en dimension supérieure
Rappel: la loi de \((U,V)\) est caractérisée par \(\mathbb{E}[h(U,V)]\) pour tout \(h\) mesurable bornée.
Soit un tel \(h\) et on applique la formule de transfert : \[ \begin{align*} \mathbb{E}[h(U,V)] & = \mathbb{E}[h(\phi(X,Y))] = \int_{\mathbb{R}^2} h(\phi(x,y)) f_{(X,Y)}(x,y) \, dx dy \\ & = \int_{A} h(\phi(x,y)) f_{(X,Y)}(x,y) \, d x d y\enspace. \end{align*} \]
On applique alors la formule du changement de variables \((u,v) = \phi(x,y) \iff \phi^{-1}(u,v) = (x,y)\) : \[ \begin{align*} \mathbb{E}[h(U,V)] & = \!\int_{B} \!\!\! h(u,v) f_{(X,Y)}(\phi^{-1}(u,v)) |\det ({\rm{J}}_{\phi^{-1}} (u,v))| \, d u d v\\ & = \!\int_{\mathbb{R}^2} \!\!\!\! h(u,v) f_{(X,Y)}(\phi^{-1}(u,v)) |\det ({\rm{J}}_{\phi^{-1}} (u,v))| {1\hspace{-3.8pt} 1}_B(u,v)\, d u d v . \end{align*} \] ce qui donne le résultat voulu.
L’algorithme de Box-Müller est le suivant: si \(U\) et \(V\) sont des v.a. indépendantes de loi uniforme sur \([0,1]\) et qu’on définit \(X\) et \(Y\) par \[ \begin{cases} X = \sqrt{-2 \log(U)} \cos(2\pi V)\\ Y = \sqrt{-2 \log(U)} \sin(2\pi V)\,. \end{cases} \] alors \(X\) et \(Y\) des variables aléatoires gaussiennes centrées réduites indépendantes.
\[ \begin{array}{ccccc} \phi^{-1} & : & ]0, \infty[ \times ]0, 2\pi[ & \to & &\mathbb{R}^2 \setminus ([0,\infty[ \times \{0\}) \\ & & ( r , \theta) & \mapsto && (r \cos(\theta) , r \sin(\theta)) \\ \phi & : & \mathbb{R}^2 \setminus ([0,\infty[ \times \{0\}) & \to && ]0, \infty[ \times ]0, 2\pi[ \\ & & ( x, y ) & \mapsto && (\sqrt{x^2+y^2} , 2 \arctan \Big( \frac{y}{x+\sqrt{x^2+y^2}} \Big) \end{array} \]
Théorème 2 (Méthode de Box-Müller) Soit \(X\) et \(Y\) deux v.a. indépendantes \(X,Y \sim \mathcal{N}(0,1)\). Le couple de variables aléatoires polaires \((R, \Theta) = \phi(X,Y)\) a pour densité \[ f_{R, \Theta}(r,\theta) = \Big( r \cdot e^{-\tfrac{r^2}{2}} {1\hspace{-3.8pt} 1}_{]0, \infty[}(r) \Big) \bigg(\frac{{1\hspace{-3.8pt} 1}_{]0, 2 \pi[}(\theta)}{2 \pi} \bigg)\,. \] \(R\) et \(\Theta\) sont indépendantes, \(\Theta \sim \mathcal{U}(]0, 2\pi[)\), \(R\) suit une loi de Rayleigh de densité \[ f_R(r) = r \cdot e^{-r^2/2} {1\hspace{-3.8pt} 1}_{]0, \infty[}(r)\,, \quad r > 0\,. \]
Lemme 1 (Simulation selon la loi de Rayleigh) Si \(U\) est une variable aléatoire de loi uniforme sur \(]0,1[\), alors \(\sqrt{-2 \log(U)}\) suit une loi de Rayleigh.
Preuve: Pour tout \(x > 0\), \(F_R(x)=\mathbb{P}(R\leq x) = 1-\exp(-\tfrac{x^2}{2})\), et donc pour tout \(q \in ]0,1[, F_R^{^\leftarrow}(q)=\sqrt{-2\log(1-q)}\). Ainsi par la méthode de l’inverse, \(\sqrt{-2\log(1-U)}\) suit est une v.a. distribuée selon la loi de Rayleigh, et donc aussi \(\sqrt{-2\log(U)}\).
Enfin, on prouve le bien fondé de la méthode de Box-Müller en utilisant le lemme ci-dessus, et en notant que \(~U\sim\mathcal{U}[0,1] \implies 2 \pi U\sim\mathcal{U}[0,2\pi]\)
numpy
, notamment.Concernant la prononciation, on prononce “khi-deux” le nom de cette loi.
Définition 1 (Loi du \(\chi^2\)) Soit \(X_1, \dots, X_k\) des variables aléatoires i.I.d. de loi normale centrée réduite. La loi de la variable aléatoire \(X = X_1^2 + \dots + X_k^2\) est appelée loi du \(\chi^2\) à \(k\) degrés de liberté. Sa densité est donnée par \[ f(x) = \frac{1}{2^{\frac{k}{2}}\Gamma(\frac{k}{2})} x^{\frac{k}{2}-1} e^{-x/2}\,, \quad x \geq 0\,, \] où \(\Gamma\) désigne la fonction gamma d’Euler : \[ \Gamma(x) = \int_0^{\infty} t^{x-1} e^{-t}\, dt\,. \] On note alors \(X \sim \chi^2(k)\).
Définition 2 (Loi de Student) Soit \(X \sim \mathcal{N}(0,1)\) et \(Y \sim \chi^2(k)\) deux variables aléatoires indépendantes. La loi de la variable aléatoire \(V = \frac{X}{\sqrt{Y/k}}\) est appelée loi de Student à \(k\) degrés de liberté. Elle admet pour densité \[ f_V(t) = \dfrac{1}{\sqrt{k \pi}} \dfrac{\Gamma(\frac{k+1}{2})}{\Gamma(\frac{k}{2})} \Big(1+\dfrac{t^2}{k}\Big)^{-\frac{k+1}{2}}\,, \quad t \in \mathbb{R}\,. \]
Application: elle est utilisée en statistiques pour déterminer l’intervalle de confiance de l’espérance d’une loi normale, quand la variance est inconnue (en lien avec le théorème de Cochran)
Cette loi a été décrite en 1908 par William Gosset: (1876-1937) statisticien et chimiste anglais. Il était employé à la brasserie Guinness à Dublin. Son employeur lui refusant le droit de publier sous son propre nom, W. Gosset choisit un pseudonyme, Student (🇫🇷: étudiant).
Définition 3 (Loi de Cauchy standard) Une v.a. \(X\) suit une loi de Cauchy standard si sa densité est donnée par \[ f_X(x) = \dfrac{1}{\pi(1+x^2)}\,, \quad x \in \mathbb{R}\,. \] On note alors \(X\sim \mathcal{C}(0,1)\) dans ce cas.
Application: Loi souvent utile comme contre-exemple, n’ayant ni espérance (ni variance a fortiori), et ne satisfaisant pas la loi des grands nombres ou le TCL.
Loi étudiée en particulier par Augustin-Louis Cauchy: (1789-1857) mathématicien et physicien français, connu pour ses travaux fondateurs en analyse complexe et dans l’étude du groupe des permutations.
cf. (Stigler 1974) pour plus de détails historiques sur cette loi
Définition 4 (Loi de Cauchy) On dit que \(Y\) suit une loi de Cauchy de paramètres \((\mu,\sigma)\in \mathbb{R} \times ]0,+\infty[\) si \(Y=\mu + \sigma X\), où \(X\) suit une loi de Cauchy standard. On note alors \(X\sim \mathcal{C}(0,1)\) dans ce cas, et la densité de \(Y\) est donnée par \[ f_Y(y) = \dfrac{1}{\sigma \pi(1 + \tfrac{1}{\sigma^2}\left(y-\mu\right)^2)}\,, \quad y \in \mathbb{R}\,. \]
Proposition 2 (Loi de Cauchy et fonction caractéristique) La fonction caractéristique de la loi de Cauchy standard est donnée par \[ \begin{align*} \varphi_X(t) & \triangleq \int_{\mathbb{R}} e^{itx} f_X(x) \, dx = e^{-|t|}\,. \end{align*} \] et donc si \(Y\sim \mathcal{C}(\mu,\sigma)\), alors pour tout \(t \in \mathbb{R}\), \(\varphi_Y(t) = e^{i\mu t - \sigma |t|}\).
Pour la preuve voir par exemple (Exemple III.5.5., Barbe et Ledoux 2006)
Implications:
Conclusion: la moyenne empirique de v.a. \(\mathcal{C}(0,1)\) i.i.d ne converge pas en probabilité vers une constante!
Proposition 3 (Loi de Cauchy et loi normale) Soient \(X\) et \(Y\) deux variables aléatoires indépendantes de loi normale centrée réduite. Alors, \(Y/X\) suit une loi de Cauchy standard.
Remarque: la méthode d’inversion permet aussi de simuler une variable aléatoire de loi de Cauchy (cf. TD/TP).
Conséquence: \(X\sim \mathcal{C}(0,1) \implies 1/X \sim \mathcal{C}(0,1)\)
Preuve: Comme pour la loi de Student, on démontre ce résultat avec un changement de variables. On considère l’application \[ \begin{array}{ccccc} \phi & : & \mathbb{R}^* \times \mathbb{R} & \to & \mathbb{R}^* \times \mathbb{R} \\ & & (x,y) & \mapsto & \Big(x, \dfrac{y}{x}\Big)\\ \phi^{-1} & : & \mathbb{R}^* \times \mathbb{R} & \to & \mathbb{R}^* \times \mathbb{R}\\ & & (u, v) & \mapsto & \Big(u, uv) \end{array} \]
\[ J_{\phi^{-1}} (u,v) = \begin{pmatrix} 1 & 0 \\ v & u \end{pmatrix}\,, \] et son déterminant vaut \(u\). Le reste est calculatoire et laissé en exercice.