SUMM 2026
Les séminaires universitaires en mathématiques à Montréal
9 au 11 janvier 2026
Campus MIL × Université McGill
Partage ta passion pour les mathématiques
Les séminaires universitaires en mathématiques à Montréal (SUMM) sont organisés par des étudiant.e.s au premier cycle en mathématiques venant de toutes les universités montréalaises. Son objectif principal est de créer un environnement propice aux échanges d'idées et d'intérêts, ainsi que de permettre aux étudiant.e.s de faire de nouvelles rencontres.
La fin de semaine des SUMM s'adresse aux étudiant.e.s de premier cycle, en mathématiques ou en un autre domaine scientifique connexe. Les étudiants aux cycles supérieurs sont aussi les bienvenus. Elle se tiendra du 9 au 11 janvier 2026.
La fin de semaine sera composée de deux jours de présentations données par des étudiant.e.s au baccalauréat et par des professeur.e.s invité.e.s sur un éventail de sujets pouvant aller des coins les plus obscurs de la physique mathématique aux applications les plus extraordinaires de l’intelligence artificielle, en passant par la richesse de la philosophie et de l’histoire des mathématiques.
Durant les SUMM, les étudiant.e.s peuvent donner une conférence ou tout simplement venir écouter les présentations de leurs pairs. C'est une occasion de partager la passion des mathématiques dans un environnement stimulant et gratifiant, en discutant avec d’autres étudiant.e.s passioné.e.s toute la fin de semaine.
Au plaisir de vous y voir !
On s'y rencontre ?
Pourquoi participer au SUMM ?
Se créer un réseau
Rencontre des étudiants qui partagent ta passion pour les mathématiques
Approfondir ses connaissances
Apprends grâce aux présentations d'autres étudiants sur des sujets variés
Présenter son travail
Une opportunité de présenter ton travail et d'améliorer tes compétences de présentation
Programme à venir
Conférences plénières 2026
Courtney Paquette
High-dimensional Optimization in Machine Learning with Applications to Scaling Limits and Compute-Optimal Neural Scaling Laws
Given the massive scale of modern ML models, we now only get a single shot to train them effectively. This restricts our ability to test multiple architectures and hyper-parameter configurations. Instead, we need to understand how these models scale, allowing us to experiment with smaller problems and then apply those insights to larger-scale models. In this talk, I will present a framework for analyzing scaling laws in stochastic learning algorithms using a power-law random features model, leveraging high-dimensional probability and random matrix theory. I will then use this scaling law to address the compute-optimal question: How should we choose model size and hyper-parameters to achieve the best possible performance in the most compute-efficient manner?









