En Deep Learning, l’algorithme de Descende de Gradient nécessite de connaitre l’expression des gradients de la fonction Cout (Log-Loss ou autre). C’est ce que nous calculons dans cette vidéo, pour ensuite pouvoir coder notre Premier neurone artificiel. 00:00 : Objectif et formules de Bases 03:40 : Règle des chaines 06:10 : Dérivée dL / da 10:25 : Dérivée da / dz (partie 1) 16:57 : Dérivée da / sie 2z 22:10 : Dérivée dz / dw 23:30 : Assemblage final 29:00 : Les autres dérivées… ► MON SITE INTERNET EN COMPLÉMENT DE CETTE VIDÉO : ► REJOINT NOTRE COMMUNAUTÉ DISCORD DISCORD mon Livre : APPRENDRE LE MACHINE LEARNING EN UNE SEMARINE CLIQUEZ Icharge : ► gratuitement mes code sur github : ► Abonnez-vous : ► Pour En Savoir plus : Visitez Machine Learnia : ► Qui suis-je? Je m’appelle Guillaume Saint-Cirgue et je suis Data Scientist au Royaume Uni. Après avoir suivi un parcours classique sup maths spé et avoir intégré une bonne école d’ingénieur, je me suis tourné vers l’intelligence artificielle de ma propre Initiative et j’ai commencé à apprendre tout seul le formulaire article, en des scientifiques, en suivant les cours du MIT et de Stanford et en passant des week end entier à developper mes propres code. Aujourd’hui, je veux vous offrir ce que j’ai appris gratuitement car le monde a urgemment besoin de se pré en Intelligence Artificielle. Que vous souhaitiez changer de vie, de carrière, ou bien développer vos compétences à résoudre des problèmes, ma chaîne vous y aide. C’est votre tour de passer à l’action ! ► Problème ? Contact : contact@machinelearnia.com.