SUMM 2026

Les séminaires universitaires en mathématiques à Montréal

9 au 11 janvier 2026

Campus MIL × Université McGill

Partage ta passion pour les mathématiques

Les séminaires universitaires en mathématiques à Montréal (SUMM) sont organisés par des étudiant.e.s au premier cycle en mathématiques venant de toutes les universités montréalaises. Son objectif principal est de créer un environnement propice aux échanges d'idées et d'intérêts, ainsi que de permettre aux étudiant.e.s de faire de nouvelles rencontres.

La fin de semaine des SUMM s'adresse aux étudiant.e.s de premier cycle, en mathématiques ou en un autre domaine scientifique connexe. Les étudiants aux cycles supérieurs sont aussi les bienvenus. Elle se tiendra du 9 au 11 janvier 2026.

La fin de semaine sera composée de deux jours de présentations données par des étudiant.e.s au baccalauréat et par des professeur.e.s invité.e.s sur un éventail de sujets pouvant aller des coins les plus obscurs de la physique mathématique aux applications les plus extraordinaires de l’intelligence artificielle, en passant par la richesse de la philosophie et de l’histoire des mathématiques.

Durant les SUMM, les étudiant.e.s peuvent donner une conférence ou tout simplement venir écouter les présentations de leurs pairs. C'est une occasion de partager la passion des mathématiques dans un environnement stimulant et gratifiant, en discutant avec d’autres étudiant.e.s passioné.e.s toute la fin de semaine.

Au plaisir de vous y voir !

On s'y rencontre ?

S'inscrire en tant que conférencier.ière S'inscrire en tant que participant.e

Pourquoi participer au SUMM ?

Se créer un réseau

Rencontre des étudiants qui partagent ta passion pour les mathématiques

Approfondir ses connaissances

Apprends grâce aux présentations d'autres étudiants sur des sujets variés

Présenter son travail

Une opportunité de présenter ton travail et d'améliorer tes compétences de présentation

Programme à venir

Conférences plénières 2026

Lucile Devin

Courtney Paquette

High-dimensional Optimization in Machine Learning with Applications to Scaling Limits and Compute-Optimal Neural Scaling Laws

Given the massive scale of modern ML models, we now only get a single shot to train them effectively. This restricts our ability to test multiple architectures and hyper-parameter configurations. Instead, we need to understand how these models scale, allowing us to experiment with smaller problems and then apply those insights to larger-scale models. In this talk, I will present a framework for analyzing scaling laws in stochastic learning algorithms using a power-law random features model, leveraging high-dimensional probability and random matrix theory. I will then use this scaling law to address the compute-optimal question: How should we choose model size and hyper-parameters to achieve the best possible performance in the most compute-efficient manner?

Vasilisa Shramchenko

Véronique Bazier-Matte

Nos commanditaires