Les réseaux neuronaux profonds (DNN) comptent parmi les modèles prédictifs les plus intensément et les plus largement utilisés dans le domaine de l'intelligence artificielle (IA). Néanmoins, une vitesse de calcul et des ressources de mémoire accrues, ainsi qu'une consommation d'énergie importante, sont nécessaires pour atteindre le plein potentiel des réseaux neuronaux profonds. À titre d'exemple, on estime que la consommation d'énergie pendant l'entraînement de ChatGPT équivaut à celle d'un ménage américain pendant plus de 700 ans. Ce cours vise à présenter les principales raisons de cette consommation d'énergie extrêmement élevée et à discuter des dernières architectures matérielles (TPU, GPU, conceptions personnalisées) conçues pour permettre une IA durable. En outre, le cours se concentrera sur la fiabilité de l'IA du point de vue du matériel. En effet, tout comportement inattendu peut avoir des conséquences graves allant jusqu'à l'endommagement de personnes physiques dans le cas des véhicules autonomes.
Activité contextualisée par rapport aux problématiques de développement durable et de responsabilité sociétale et/ou illustrée par des exemples, exercices, applications.
Le cours fournira une compréhension de base de la source de la consommation d'énergie du point de vue du matériel et du logiciel. Par la suite, le cours présentera des architectures matérielles conçues pour réduire la consommation d'énergie. En outre, le cours abordera également les impacts de l'utilisation généralisée de l'IA du point de vue de la soutenabilité