Cette page dédiée présente l’un des thème / domaine stratégique actuellement en discussion dans le cadre de notre Programme de financement de recherche stratégique. L’ensemble des thèmes / domaines en discussion est indiqué sur la page du programme. Chaque page dédiée (y compris celle-ci) peut être à un niveau de détail et de maturité variable. Pour participer à la discussion sur ce thème ou en proposer de nouveaux, veuillez utiliser ce formulaire. Si vous souhaitez être tenu.e au courant des développements autour de ce thème / domaine, inscrivez-vous ci-dessous.

Differentiable Hardware Models for Compact and Efficient Edge-deployed Deep Learning

Description et justification du domaine

Expertise scientifique locale, alignement avec les priorités socio-économiques du Québec et du Canada, stratégie gouvernementale/universitaire

Contexte

Mots-clefs : Embedded systems, differentiable hardware models, Lottery ticket

Organisations pertinentes : NSERC, FRQ, Intel Research, NVIDIA Research, Mila, REPARTI, McGill Centre for Intelligent Machines

Personnes pertinentes suggérées durant la consultation :

Les noms suivants ont été proposés par la communauté et les personnes mentionnées ci-dessous ont accepté d’afficher publiquement leur nom. Notez cependant que tous les noms des professeur.e.s (qu’ils soient affichés publiquement ou non sur notre site web) seront transmis au comité conseil pour l’étape d’identification et de sélection des thèmes stratégiques. Notez également que les personnes identifiées durant l’étape de consultation n’ont pas la garantie de recevoir une partie du financement. Cette étape sert avant tout à présenter un panorama du domaine, incluant les personnes pertinentes et non à monter des équipes pour les programmes-cadres.

  • Warren Gross
  • Derek Nowrouzezahrai

Programmes-cadres potentiels

  • Model a modern end-to-end hardware model as a differentiable computing platform, where (i.e., floating point) accuracy, cost (e.g., in die space, power consumption, and ALU unit distribution)
  • Realize existing neural architectures on the platform
  • Jointly optimize the underlying hardware and neural architectures across various target profiles, e.g., low power, high accuracy, inference performance.

Documentation complémentaire

(pas de documentation complémentaire pour le moment)

Intéressé.e? Entrez votre courriel pour recevoir les mises à jour en lien avec cette page :

Historique

13 juillet 2021 : Première version

15 juillet 2021 : Ajout de personnes pertinentes