Il existe un grand nombre d’outils d’apprentissage automatique disponibles, pourquoi choisiriez-vous des réseaux de neurones artificiels plutôt que d’autres outils ? Ce clip et le suivant vous ouvriront les yeux pour voir leurs incroyables capacités ! Vous en apprendrez plus sur les réseaux de neurones sans aucun calcul ni code, ce qu’ils sont et comment ils fonctionnent. Vous comprendrez vite pourquoi ce sont des outils si puissants ! Deep learning TV sur Facebook : Twitter : le deep learning concerne principalement les réseaux de neurones, où le réseau est un réseau interconnecté de nœuds et de périphéries. Les réseaux de neurones sont conçus pour effectuer des tâches complexes, telles que la tâche de classer des objets en fonction de certains attributs. Ce processus est appelé classification et est au centre de notre série. La classification consiste à prendre un ensemble d’objets et certaines caractéristiques de données qui les décrivent, et à les classer en catégories. Ceci est fait par un classificateur, qui prend les caractéristiques des données en entrée et attribue une valeur (généralement entre 0 et 1) à chaque objet ; c’est ce qu’on appelle le déclencheur ou l’activation ; les scores élevés représentent une catégorie, les scores faibles représentent une autre catégorie. Il existe de nombreux types de classificateurs, tels que la régression logistique, les machines à vecteurs de support (SVM) et Bayes naïf. Si vous avez déjà utilisé l’un de ces outils, lequel préférez-vous ? S’il vous plaît donner des commentaires. Un réseau de neurones est un réseau hautement structuré avec trois couches : une couche d’entrée, une couche de sortie et une couche dite cachée, qui fait référence à n’importe quelle couche entre la couche d’entrée et la couche de sortie. Chaque nœud (également appelé neurone) de la couche cachée et de la couche de sortie possède un classificateur. Le neurone d’entrée reçoit d’abord les données caractéristiques de l’objet. Après avoir traité les données, ils envoient la sortie à la première couche cachée. La couche cachée traite cette sortie et envoie le résultat à la couche cachée suivante. Cela continue jusqu’à ce que les données atteignent la couche de sortie finale, où la valeur de sortie détermine la classification de l’objet. L’ensemble du processus est appelé propagation vers l’avant ou propagation vers l’avant. Le score de la couche de sortie détermine à quelle classe appartient un ensemble d’entrées. Lien : Livre de Michael Nielsen – Andrew Ng Machine Learning – Andrew Ng Deep Learning – Avez-vous déjà utilisé des réseaux de neurones ? Si non, est-ce clair pour l’instant ? S’il vous plaît donner des commentaires. Les réseaux de neurones sont parfois appelés perceptrons multicouches ou MLP. C’est un peu déroutant car le perceptron fait référence à l’un des réseaux de neurones primitifs, qui a une capacité d’activation limitée. Cependant, le terme existe déjà – le réseau neuronal ordinaire typique est appelé MLP. Avant qu’un neurone puisse envoyer sa sortie au prochain neurone du réseau, il doit d’abord traiter l’entrée. Pour ce faire, il utilise l’entrée et deux autres nombres (appelés poids et biais) pour effectuer des calculs de base. Au fur et à mesure que le réseau de neurones est entraîné sur un ensemble d’échantillons de test, ces deux nombres changent. Si la précision est faible, ajustez légèrement le poids et le nombre d’écarts jusqu’à ce que la précision s’améliore lentement. Une fois que le réseau de neurones est correctement formé, sa précision peut atteindre 95 %. Remerciements : Nicky Pickorita (YouTube art)-Isabel Descutner (voix)-Dan Partynski (réviseur)-Jagannath Rajagopal (créateur, producteur et réalisateur) -.