Recherche de site Web
L'une des décisions les plus difficiles en programmation est de choisir des noms. Les programmeurs utilisent souvent cette expression pour souligner les défis liés à la sélection des noms de fonctio
Lire la suite →La fonction zip() en Python est un outil intéressant qui vous permet de combiner plusieurs listes ou autres itérables (comme des tuples, des ensembles ou même des chaînes) en un seul itérable de tuples. Pensez-y comme à une fermeture éclair sur une veste
Lire la suite →Découvrez comment simplifier votre code Python à l'aide de fonctions partielles pour créer des appels de fonction plus flexibles, réutilisables et concis.
En Python, les fonctions nécessitent souvent plusieurs arguments et vous pouvez vous retrouver à transmettre à plu
Lire la suite →La bibliothèque Keras Python permet de créer des modèles d'apprentissage en profondeur rapidement et facilement.
L'API séquentielle vous permet de créer des modèles couche par couche pour la plupart des problèmes. Il est limité dans le sens où il ne vous permet pas de créer des modèles partageant des couches ou comportant plusieurs entrées ou sorties.
L'API fonctionnelle de Keras est une autre manière de créer des modèles qui offre beaucoup plus de flexibilité, notamment la créati
Lire la suite →Dans un réseau neuronal, la fonction d'activation est chargée de transformer l'entrée pondérée additionnée du nœud en activation du nœud ou en sortie pour cette entrée.
La fonction d'activation linéaire rectifiée ou ReLU en abrégé est une fonction linéaire par morceaux qui produira directement l'entrée si elle est positive, sinon elle produira zéro. Elle est devenue la fonction d'activation par défaut pour de nombreux types de réseaux de neurones, car u
Lire la suite →Le problème des gradients de disparition est un exemple de comportement instable que vous pouvez rencontrer lors de la formation d'un réseau neuronal profond.
Il décrit la situation dans laquelle un réseau de rétroaction multicouche profond ou un réseau neuronal récurrent est incapable de propager des informations de gradient utiles depuis l'extrémité de sortie du modèle vers les couches proches de l'extrémité d'entrée du modèle.
Le résultat est l’incapacité générale des modèles c
Lire la suite →Les réseaux de neurones sont entraînés à l'aide de la descente de gradient stochastique et nécessitent que vous choisissiez une fonction de perte lors de la conception et de la configuration de votre modèle.
Il existe de nombreuses fonctions de perte parmi lesquelles choisir et il peut être difficile de savoir quoi choisir, ou même ce qu'est une fonction de perte et le rôle qu'elle joue lors de la formation d'un réseau neuronal.
Dans cet article, vous découvrirez le rôle des fonct
Lire la suite →Les réseaux neuronaux d'apprentissage profond sont entraînés à l'aide de l'algorithme d'optimisation de descente de gradient stochastique.
Dans le cadre de l'algorithme d'optimisation, l'erreur relative à l'état actuel du modèle doit être estimée à plusieurs reprises. Cela nécessite le choix d'une fonction d'erreur, classiquement appelée fonction de perte, qui peut être utilisée pour estimer la perte du modèle afin que les poids puissent être mis à jour
Lire la suite →Les réseaux adverses génératifs, ou GAN en abrégé, sont une architecture d'apprentissage en profondeur pour former de puissants modèles de générateurs.
Un modèle générateur est capable de générer de nouveaux échantillons artificiels qui pourraient vraisemblablement provenir d’une distribution d’échantillons existante.
Les GAN sont composés à la fois de modèles générateurs et discriminateurs. Le générateur est chargé de générer de nouveaux échantillons à partir du domaine, et le di
Lire la suite →Le Generative Adversarial Network, ou GAN en abrégé, est une architecture permettant de former un modèle génératif.
L'architecture est composée de deux modèles. Le générateur qui nous intéresse et un modèle discriminateur qui sert à aider à la formation du générateur. Initialement, les modèles générateur et discriminateur ont été implémentés sous forme de perceptrons multicouches (MLP), bien que plus récemment, les modèles soient implémentés sous forme de réseaux neuronaux convolutifs p
Lire la suite →