"Laplace, le hasard et ses lois universelles"
On pense souvent qu'il n'y a rien de commun entre mathématiques et hasard. Mais à partir du XVIème siècle, les mathématiciens ont montré qu'il était possible de tenir des raisonnements mathématiques sur le hasard. Au XVIIème, le chevalier de Méré demanda à son ami Blaise Pascal comment partager les gains d'un jeu de hasard qui n'aurait pu être mené à terme. Blaise Pascal et Pierre Fermat jettent alors les premiers fondements de la théorie des probabilités, qui seront décrits dans un ouvrage de Christian Huygens, paru en 1657. Il faudra cependant attendre l'ouvrage posthume de Jacques Bernouilli, Ars Conjectandi paru en 1713 pour voir naitre un des théorèmes fondateurs de la théorie moderne des probabilités: la loi des grands nombres. Celle-ci montre que si on répète de façon indépendante un grand nombre de fois un même sondage, à partir d'un certain moment, le résultat obtenu en moyenne ne devrait plus être aléatoire. Par ailleurs, l'erreur commise ne dépend de rien d'autre que de la taille de l'échantillon.
Le deuxième théorème fondamental des probabilités, le théorème central limite, apparut peu de temps après pour mesurer cette erreur. Dans le livre The Doctrine of Chance, publié en 1718 par le mathématicien de Moivre, né en France en 1667, mais émigré en Angleterre après la révocation de l'édit de Nantes car il était protestant, apparaît ce théorème pour la première fois. Il s'agit ici de voir que si on lance une pièce de monnaie un certain nombre de fois, la probabilité de ne pas obtenir le côté face la moitié des fois est décrit par une distribution gaussienne -- la fameuse cloche de Gauss.
Un peu plus tard, Pierre-Simon de Laplace, né en 1749 à Beaumont-en-Auge, un des plus grands savants de l'époque révolutionnaire, publie son Essai philosophique sur les
probabilités (1795) et la Théorie Analytique des Probabilités (1812), dans lesquelles il énonce pour la première fois le "théorème central-limite" qui est le résultat fondamental de cette théorie. Il montre en effet que ce théorème dépasse largement le contexte d'un jeu de pile ou face et s'applique plus largement dès qu'on a des observations indépendantes. La loi gaussienne décrit ainsi un grand nombre de phénomènes.
L'histoire du théorème depuis 200 ans est riche -- depuis les travaux du "mathématicien-fermier" finlandais Lindeberg dans les années 1920 jusqu'aux applications en physique, en statistique ou en mathématique financière par exemple. Qu'y a t-il de commun entre le mouvement des graines de Pollen observé par Brown et l'évolution des marchés financiers ? Dans les deux cas, le fait de prendre telle ou telle direction à un instant comporte une part de hasard, indépendante du passé. La somme de ces petits hasards fait émerger la loi gaussienne par le théorème central limite et l'évolution de ces processus est décrite par le mouvement brownien.
Plus récemment d'autres lois universelles sont apparues comme décrivant de nombreux phénomènes. Par exemple la distribution de Tracy-Widom décrit à la fois l'accroissement de surfaces ou la position des voitures dans un embouteillage, celle dite du sinus représente les niveaux d'énergie de nucléons, la position des bus dans la ville de Cuernavaca (Mexico) ou les zéros de la fameuse fonction zeta de Riemann. Ces deux distributions sont d'abord apparus dans le monde des matrices aléatoires. Nous verrons comment les principes de Laplace et Lindenberg, adaptés par Tao et Vu d'une part, et Erdös, Schlein et Yau d'autre part, permettent de mieux comprendre l'universalité de ces lois.
Sur France Culture : Alice Guionnet et Martin Andler à l'émission Continent Sciences le 4 avril 2011 à 14h pour un entretien autour de la conférence.
Texte : Pierre-Simon de Laplace, Essai philosophique sur les probabilités (1795).
Pour en savoir plus : bibliographie