Programmes d'études

Détails et horaire du cours

Légende

  Cours de jour
  Cours de soir
  Cours en ligne
Certificats et microprogrammes de 1er cycle
Baccalauréat (formation d'ingénieur)
Études supérieures

INF6953H

C.SPÉC.: Deep Learning

Nombre de crédits : 3 (3 - 1.5 - 4.5) Les chiffres indiqués entre parenthèses sous le sigle du cours, par exemple (3 - 2 - 4), constituent le triplet horaire.

Le premier chiffre est le nombre d'heures de cours théorique par semaine (les périodes de cours durent 50 minutes).
Le second chiffre est le nombre d'heures de travaux dirigés (exercices) ou laboratoire, par semaine.
(Note : certains cours ont un triplet (3 - 1.5 - 4.5). Dans ce cas, les 1,5 heure par semaine sont des laboratoires qui durent 3 heures mais qui ont lieu toutes les deux semaines. À Polytechnique, on parle alors de laboratoires bi-hebdomadaires).
Le troisième chiffre est un nombre d'heures estimé que l'étudiant doit investir de façon personnelle par semaine pour réussir son cours.
Département : Génies informatique, logiciel
Préalable(s) :
Corequis :
Notes :
Responsable(s) : À venir
Description
L'apprentissage profond « deep learning ». Concepts fondamentaux et avancés en apprentissage automatique. L'approche de maximum de vraisemblance et les fonctions de perte. Concepts avancés en probabilité et les éléments clés de l'algèbre linéaire. Réseaux neuronaux profonds, régularisation, fonctions d'activation, rétropropagation et des graphes de calculs. Descente de gradient stochastique, les taux d'apprentissage, « dropout », normalisation par lot. Les architectures clés de réseau incluant : les réseaux de neurones convolutifs, les autoencodeurs, les réseaux neuronaux récurrents, les réseaux de longue mémoire à court terme « LSTM ». Les réseaux stochastiques, les champs aléatoires conditionnels, les machines de Boltzmann. Modèles stochastiques et déterministes mixtes. Apprentissage par renforcement profond. Ce cours sera donné en anglais. Deep Learning. Fundamental and advanced concepts in machine learning. Maximum likelihood and loss functions. Advanced concepts in probability and key elements of linear algebra. Deep feedforward neural networks, regularization, activation functions, backpropagation and computation graphs. Stochastic gradient descent, learning rates, dropout, batch normalization. Key network architectures, including: convolutional neural networks, autoencoders, recurrent neural networks, long short-term memory (LSTM) networks. Stochastic networks, conditional random fields, Boltzmann machines. Mixed stochastic and deterministic models. Deep reinforcement learning.