"La théorie de l'apprentissage de Vapnik et les progrès récents de l'intelligence artificielle"
L'explosion récente de l'intelligence artificielle et de ses applications est due en grande partie à l'utilisation de l'apprentissage machine, particulièrement des techniques d'apprentissage profond. Les idées fondatrices de l'apprentissage machine remontent aux années 50, et celles de l'apprentissage profond aux année 80. Les applications pratiques ont explosé ces dernières années, des voitures autonomes à la traduction, la recherche d'information et la médecine personnalisée. Mais que dit la théorie ? La formulation mathématique la plus générale des processus d'apprentissage est celle du mathématicien Russe émigré aux Etats-Unis Vladimir Vapnik. Dans son petit livre publié en 1995 "La Nature de la Théorie Statistique de l'Apprentissage", Vapnik décrit les conditions générales dans lesquelles un système, informatique ou biologique, peut apprendre une tâche, et à quelle vitesse. Mais cette théorie générale n'explique pas pourquoi les méthodes modernes d'apprentissage profond fonctionnent si bien, bien mieux que les méthodes plus simples mais mathématiquement mieux comprises. Dans l'Histoire, les inventions des ingénieurs ont souvent suscité des révolutions conceptuelles et théoriques : l'invention du télescope engendra l'optique, celle de la machine à vapeur engendra la thermodynamique, et celle de l'avion l'aérodynamique. L'émergence de l'intelligence artificielle suscitera-t-elle une nouvelle théorie de l'intelligence ? C'est un nouveau défi pour les mathématiques et peut-être la clé des futurs progrès de l'intelligence artificielle.
"The Nature of Statistical Learning Theory", Vladimir N. Vapnik, Springer 1995.
Yann Le Cun
Yann Le Cun est directeur de Facebook Artificial Intelligence Research (FAIR) et professeur à la New York University (NYU) où il est affilié au Courant Institute of Mathematical Sciences, et au Center for Data Science. Après des études à Paris ponctuées par un diplôme d’ingénieur de l’ESIEE et un doctorat au sein de l’Université Pierre et Marie Curie, il est attaché de recherche à l’université de Toronto en 1987 puis chercheur aux Laboratoires Bell en 1988. Yann Le Cun devient ensuite chef du département de recherche en imagerie à AT&T Labs-Research en 1996 et rejoint NYU en 2003. Il rejoint Facebook fin 2013 où il crée Facebook Artificial Intelligence Research. Les recherches de Yann Le Cun ont porté principalement sur l'intelligence artificielle, l'apprentissage machine, la vision artificielle et la robotique. Il est l’inventeur des réseaux convolutifs et un des chefs de file de l’apprentissage profond qui depuis quelques années a révolutionné l'intelligence artificielle. Il a conseillé de nombreuses entreprises et co-fondé les startups Elements Inc. Et Museami. Yann Le Cun est membre de l'Académie Nationale d'Ingénierie des Etats-Unis et a été titulaire de la chaire annuelle "Informatique et sciences numériques" au Collège de France pendant l'année 2015-2016