Programmes d'études
Efficient HW Implem. of Deep Neural Networks

Programmes d'études
Efficient HW Implem. of Deep Neural Networks
Programmes d'études
Détails et horaire du cours
Légende
Cours de jour
Cours de soir
Cours en ligne
Certificats et microprogrammes de 1er cycle
Baccalauréat (formation d'ingénieur)
Études supérieures
ELE6310E
Efficient HW Implem. of Deep Neural Networks
Nombre de crédits :
3 (3 - 0 - 6)
Les chiffres indiqués entre parenthèses sous le sigle du cours, par exemple (3 - 2 - 4), constituent le triplet horaire.
Le premier chiffre est le nombre d'heures de cours théorique par semaine (les périodes de cours durent 50 minutes).
Le second chiffre est le nombre d'heures de travaux dirigés (exercices) ou laboratoire, par semaine.
(Note : certains cours ont un triplet (3 - 1.5 - 4.5). Dans ce cas, les 1,5 heure par semaine sont des laboratoires qui durent 3 heures mais qui ont lieu toutes les deux semaines. À Polytechnique, on parle alors de laboratoires bi-hebdomadaires).
Le troisième chiffre est un nombre d'heures estimé que l'étudiant doit investir de façon personnelle par semaine pour réussir son cours.
Le premier chiffre est le nombre d'heures de cours théorique par semaine (les périodes de cours durent 50 minutes).
Le second chiffre est le nombre d'heures de travaux dirigés (exercices) ou laboratoire, par semaine.
(Note : certains cours ont un triplet (3 - 1.5 - 4.5). Dans ce cas, les 1,5 heure par semaine sont des laboratoires qui durent 3 heures mais qui ont lieu toutes les deux semaines. À Polytechnique, on parle alors de laboratoires bi-hebdomadaires).
Le troisième chiffre est un nombre d'heures estimé que l'étudiant doit investir de façon personnelle par semaine pour réussir son cours.
Département :
Génie électrique
Préalable(s) :
ELE3312 ou équivalent
Corequis :
Notes :
This course is taught in English.
Responsable(s) :
François Leduc-Primeau
Description
General-purpose (CPU, GPU) and specialized (systolic, many-core, etc.) hardware architectures for deep learning (DL). Energy consumption calculation of a DL model at different abstraction levels. Optimizing models for implementation: quantization, compression, pruning, and design space exploration. Interactions between DL models and hardware architectures and optimization of hardware accelerator designs. Experimental project focusing on minimizing the energy cost of a deep learning task.
General-purpose (CPU, GPU) and specialized (systolic, many-core, etc.) hardware architectures for deep learning (DL). Energy consumption calculation of a DL model at different abstraction levels. Optimizing models for implementation: quantization, compression, pruning, and design space exploration. Interactions between DL models and hardware architectures and optimization of hardware accelerator designs. Experimental project focusing on minimizing the energy cost of a deep learning task.
Plan triennal
2023-2024 | 2024-2025 | 2025-2026 | ||||||
---|---|---|---|---|---|---|---|---|
Automne | Hiver | Été | Automne | Hiver | Été | Automne | Hiver | Été |
- | Cours de jour | - | - | Cours de jour | - | - | Cours de jour | - |