Recherche de site Web

Comment choisir les noms de fonctions Python ?

L'une des décisions les plus difficiles en programmation est de choisir des noms. Les programmeurs utilisent souvent cette expression pour souligner les défis liés à la sélection des noms de fonctio

Lire la suite →

La fonction zip() de Python expliquée avec des exemples simples

La fonction zip() en Python est un outil intéressant qui vous permet de combiner plusieurs listes ou autres itérables (comme des tuples, des ensembles ou même des chaînes) en un seul itérable de tuples. Pensez-y comme à une fermeture éclair sur une veste

Lire la suite →

Fonctions partielles en Python : un guide pour les développeurs

Découvrez comment simplifier votre code Python à l'aide de fonctions partielles pour créer des appels de fonction plus flexibles, réutilisables et concis.

En Python, les fonctions nécessitent souvent plusieurs arguments et vous pouvez vous retrouver à transmettre à plu

Lire la suite →

Comment utiliser l'API fonctionnelle Keras pour le Deep Learning

La bibliothèque Keras Python permet de créer des modèles d'apprentissage en profondeur rapidement et facilement.

L'API séquentielle vous permet de créer des modèles couche par couche pour la plupart des problèmes. Il est limité dans le sens où il ne vous permet pas de créer des modèles partageant des couches ou comportant plusieurs entrées ou sorties.

L'API fonctionnelle de Keras est une autre manière de créer des modèles qui offre beaucoup plus de flexibilité, notamment la créati

Lire la suite →

Une introduction douce à l'unité linéaire rectifiée (ReLU)

Dans un réseau neuronal, la fonction d'activation est chargée de transformer l'entrée pondérée additionnée du nœud en activation du nœud ou en sortie pour cette entrée.

La fonction d'activation linéaire rectifiée ou ReLU en abrégé est une fonction linéaire par morceaux qui produira directement l'entrée si elle est positive, sinon elle produira zéro. Elle est devenue la fonction d'activation par défaut pour de nombreux types de réseaux de neurones, car u

Lire la suite →

Comment résoudre le problème des dégradés qui disparaissent à l'aide de ReLU

Le problème des gradients de disparition est un exemple de comportement instable que vous pouvez rencontrer lors de la formation d'un réseau neuronal profond.

Il décrit la situation dans laquelle un réseau de rétroaction multicouche profond ou un réseau neuronal récurrent est incapable de propager des informations de gradient utiles depuis l'extrémité de sortie du modèle vers les couches proches de l'extrémité d'entrée du modèle.

Le résultat est l’incapacité générale des modèles c

Lire la suite →

Fonctions de perte et de perte pour la formation des réseaux de neurones d'apprentissage profond

Les réseaux de neurones sont entraînés à l'aide de la descente de gradient stochastique et nécessitent que vous choisissiez une fonction de perte lors de la conception et de la configuration de votre modèle.

Il existe de nombreuses fonctions de perte parmi lesquelles choisir et il peut être difficile de savoir quoi choisir, ou même ce qu'est une fonction de perte et le rôle qu'elle joue lors de la formation d'un réseau neuronal.

Dans cet article, vous découvrirez le rôle des fonct

Lire la suite →

Comment choisir les fonctions de perte lors de la formation des réseaux de neurones d'apprentissage profond

Les réseaux neuronaux d'apprentissage profond sont entraînés à l'aide de l'algorithme d'optimisation de descente de gradient stochastique.

Dans le cadre de l'algorithme d'optimisation, l'erreur relative à l'état actuel du modèle doit être estimée à plusieurs reprises. Cela nécessite le choix d'une fonction d'erreur, classiquement appelée fonction de perte, qui peut être utilisée pour estimer la perte du modèle afin que les poids puissent être mis à jour

Lire la suite →

Comment développer un réseau contradictoire génératif 1D à partir de zéro dans Keras

Les réseaux adverses génératifs, ou GAN en abrégé, sont une architecture d'apprentissage en profondeur pour former de puissants modèles de générateurs.

Un modèle générateur est capable de générer de nouveaux échantillons artificiels qui pourraient vraisemblablement provenir d’une distribution d’échantillons existante.

Les GAN sont composés à la fois de modèles générateurs et discriminateurs. Le générateur est chargé de générer de nouveaux échantillons à partir du domaine, et le di

Lire la suite →

Comment coder l'algorithme de formation GAN et les fonctions de perte

Le Generative Adversarial Network, ou GAN en abrégé, est une architecture permettant de former un modèle génératif.

L'architecture est composée de deux modèles. Le générateur qui nous intéresse et un modèle discriminateur qui sert à aider à la formation du générateur. Initialement, les modèles générateur et discriminateur ont été implémentés sous forme de perceptrons multicouches (MLP), bien que plus récemment, les modèles soient implémentés sous forme de réseaux neuronaux convolutifs p

Lire la suite →