Introduction

HAX603X: Modélisation stochastique

Joseph Salmon

Université de Montpellier (Imag)

IUF

CNRS

Benjamin Charlier

Université de Montpellier (Imag)

CNRS

Présentation, informations générales




PS: n’oubliez pas de mettre [HAX603X] dans le titre de vos mails!

Enseignants


  • Joseph Salmon : CM et TP
    • Situation actuelle : Professeur à l’Université de Montpellier
    • Précédemment : Paris Diderot-Paris 7, Duke Univ., Télécom ParisTech, Univ. Washington
    • Spécialités : statistiques, optimisation, traitement des images, sciences participatives>
    • Bureau : 415, Bat. 9


  • Benjamin Charlier : CM, TD et TP
    • Situation actuelle : Maître de conférences à l’Université de Montpellier
    • Précédemment : Université Paul Sabatier, ENS Paris-Saclay
    • Spécialités : traitement des images, statistiques, différentiation automatique
    • Bureau : 423, Bat. 9

Ressources en ligne



Informations principales : site du cours http://josephsalmon.github.io/HAX603X


  • Syllabus
  • Cours (détaillé: site web)
  • Slides (résumé)
  • Feuilles de TD
  • Feuilles de TP
  • Rendu TP : Moodle de l’université (https://moodle.umontpellier.fr/course/view.php?id=5558)

Validation


  • TP notés : Rendu = fichier Python .py unique

    • TP noté 1 : rendre en fin de session (en S11)
    • TP noté 2 : rendre en fin de session (en S17)
  • CC : devoir sur table d’une heure (S18)


  • Coefficients:
    • Note Session 1 : (40% CC + 30% TP 1 + 30% TP 2)
    • Note Session 2 : (30% CC + 35% TP 1 + 35% TP 2)

Important

Le rendu est individuel pour le TP noté !!!

Notation pour les TPs


Rendu : sur Moodle, en déposant un fichier nom_prenom.py dans le dossier adéquat.

Détails de la notation des TPs :

  • Qualité des réponses aux questions
  • Qualité de rédaction et d’orthographe
  • Qualité des graphiques (légendes, couleurs)
  • Qualité du code (noms de variables, clairs, commentaires utiles, code synthétique, etc.)
  • Code reproductible et absence de bug


Pénalités

  • Envoi par mail : zéro
  • Retard : zéro (uploader avant la fin, fermeture automatique de moodle)

Prérequis - à revoir seul






  • Pour aller plus loin: conditionnement, martingales (Williams 1991)

Description du cours HAX603X


  1. Générer l’aléa
    • générateurs pseudo-aléatoires, simulations de variables aléatoires (inverse, rejet, etc.)
    • illustrations numériques et visualisation en Python (loi des grands nombres, TCL)
  2. Méthode de Monte-Carlo
    • méthode de Monte-Carlo pour le calcul approché d’une intégrale
    • réduction de la variance : variables antithétiques, variables de contrôle, etc.
  3. Compléments
    • vecteurs gaussiens et lien avec les lois usuelles de la statistique inférentielle (student, chi2)
    • construction d’intervalles de confiance.
    • marche aléatoire simple, etc.

Perspectives historiques

L’aiguille de Buffon


  • 1733: l’aiguille de Buffon, méthode d’estimation de la valeur de \(\pi\).
  • Problème initial: une aiguille de taille 1 tombe sur un parquet composé de lattes de largeur \(1\): quelle est alors la probabilité \(P\) que l’aiguille croise une ligne de la trame du parquet ?

Georges-Louis Leclerc, Comte de Buffon(1707-1788) : naturaliste, mathématicien et industriel français du siècle des LumièresPortrait de Georges-Louis Leclerc, comte de Buffon.
Huile sur toile de François-Hubert Drouais, Montbard, musée Buffon.

L’aiguille de Buffon (II)


Problème initial: une aiguille de taille 1 tombe sur un parquet composé de lattes de largeur \(1\): quelle est alors la probabilité \(P\) que l’aiguille croise une ligne de la trame du parquet ?


Réponse: \[ P = \frac{2}{\pi} \approx 0.6366 \enspace. \] Une preuve de ce résultat est donnée ici.

Principe de Monte Carlo et estimation


Idée sous-jacente de Buffon :

si l’on répète cette expérience un grand nombre de fois, on peut approché la quantité \(P\) numériquement, par exemple en proposant un estimateur \(\hat{P}_n\) qui compte la proportion de chevauchement après avoir fait \(n\) répétition des lancers.


Estimation de \(\pi\):

\[ \pi \approx \frac{2}{\hat{P}_n} \]

Principe de Monte Carlo et estimation (II)



Méthode de Monte-Carlo


Méthode de calcul numérique qui consiste à utiliser des nombres aléatoires pour résoudre des problèmes déterministes.


Domaines d’applications:

  • la physique
  • la chimie
  • la biologie
  • la finance
  • l’apprentissage automatique

Naissance de la méthode


  • Lieu: Los Alamos
  • Époque: seconde guerre mondial
  • Contexte: Projet Manathan, produire une bombe atomique
  • Besoins: modéliser les réactions nucléaires en chaîne (combinatoires)

John von Neumann (1903-1957), mathématicien et physicien américano-hongrois, un des pères de l’informatique.

Nicholas Metropolis (1915-1999), physicien gréco-américain, un des initiateurs de la méthode de Monte Carlo et du recuit simulé

Stanisław Ulam (1909-1984), mathématicien polono-américainm, un des initiateurs de la méthode de Monte Carlo et de la propulsion nucléaire pulsée

Explosion de Trinity (16 Juillet 1945)

L’origine du nom “Monte-Carlo”


Initialement: besoin de confidentialité du projet Manhattan


Monte-Carlo: connue pour ses jeux de hasard, où l’oncle de Stanisław Ulam aimait se rendre pour assouvir sa soif de jeu.


Ce serait N. Metropolis qui aurait proposé ce nom, cf. (Metropolis 1987):

It was at that time that I suggested an obvious name for the statistical method—a suggestion not unrelated to the fact that Stan had an uncle who would borrow money from relatives because he “just had to go to Monte Carlo”.

Essor de la méthode de Monte Carlo


  • Popularisation croissante:

    • Essor de l’informatique (depuis les années 80)
    • Essor des méthodes de calcul parallèle (GPUs, clusters, etc.)
  • Domaine principaux impactés:

    • finance : évaluation des prix de produits dérivés

    • apprentissage automatique: utilisation de l’aléatoire pour généré des scénarios

      Exemples: Alphago (2016), AlphaGeometry (2024)


Recherche arborescente Monte-Carlo (🇬🇧 : Monte Carlo tree search): analyse des scénarios les plus prometteurs, en élargissant l’arbre de recherche sur la base d’un échantillonnage aléatoire de l’espace entier (ingrédient important d’AlphaGo)

Bibliographie

Liste de livres


Barbe, Philippe, et Michel Ledoux. 2006. Probabilités.
Courant, J., M. de Falco, S. Gonnord, J.-C. Filliâtre, S. Conchon, G. Dowek, et B. Wack. 2013. Informatique pour tous en classes préparatoires aux grandes écoles: Manuel d’algorithmique et programmation structurée avec Python. Eyrolles.
Foata, D., et A. Fuchs. 1996. Calcul des probabilités: cours et exercices corrigés. Masson.
Metropolis, Nicholas. 1987. « The beginning of the Monte Carlo method ». Los Alamos Science, nᵒ 15: 125‑30.
Ouvrard, J.-Y. 2007. Probabilités : Tome 2, Licence - CAPES. 2ᵉ éd. Enseignement des mathématiques. Cassini.
———. 2008. Probabilités : Tome 1, Licence - CAPES. 2ᵉ éd. Enseignement des mathématiques. Cassini.
Williams, D. 1991. Probability with martingales. Cambridge Mathematical Textbooks. Cambridge: Cambridge University Press.