De la physique statistique à l’intelligence artificielle
Les liens entre la physique statistique et l’apprentissage-machine sont apparus dès le début des années 1980 avec les premiers travaux autour des verres de spin et des mémoires associatives.
Ils ont été poursuivis avec un très grand succès depuis, apportant de nouvelles réponses théoriques et des algorithmes novateurs pour l’"échantillonnage parcimonieux" ("compressed sensing") ou les algorithmes de "propagation de croyance" ("message-passing").
Au tournant des années 2010, de nouvelles structures de réseaux de neurones dits "profonds" sont apparus. Les réseaux profonds ont rapidement permis d’atteindre dans différentes tâches difficiles (vision par ordinateur, reconnaissance de parole,...) des performances stupéfiantes.
Ces nouvelles structures d’apprentissage posent de nouveaux défis aux chercheurs : on est aujourd’hui très loin de comprendre les raisons de ces immenses succès.
La conférence-débat cherchera à nous éclairer sur les apports théoriques et méthodologiques de la physique statistique sur l’apprentissage profond.