Site web du cours: Playlist: Conférencier: Yann LeCun Semaine 1: 00: 00-Semaine 1-Conférence Partie A: Nous avons discuté de la motivation derrière l’apprentissage en profondeur. Nous commençons par l’histoire et l’inspiration de l’apprentissage profond. Ensuite, nous avons discuté de l’histoire de la reconnaissance de formes et introduit la méthode de calcul de la descente de gradient et sa rétropropagation. Enfin, nous avons discuté de la représentation hiérarchique du cortex visuel. 0:03:37 – Inspiration pour le deep learning et son histoire et apprentissage supervisé 0:24:21 – Introduction à l’histoire de la reconnaissance de formes et de la descente de gradient 0:38:56 – Calcul des gradients par rétropropagation, stratification de la partie magistrale du Représentation du cortex visuel B: Nous discutons d’abord du développement de CNN de Fukushima à Rakucun puis à Alexnet. Ensuite, nous avons discuté de certaines applications de CNN, telles que la segmentation d’images, les voitures autonomes et l’analyse d’images médicales. Nous avons discuté de la nature hiérarchique des réseaux profonds et des propriétés des réseaux profonds qui les rendent avantageux. Nous avons enfin discuté de la génération et de l’apprentissage des fonctionnalités / représentations. 0:49:25-L’évolution de CNN 1:05:55-Apprentissage profond et extraction de fonctionnalités 1:19:27-Représentation de l’apprentissage.