Résumé:
Dans le cadre de cette étude, nous explorons l'influence des différentes fonctions d'activation sur les
performances des réseaux de neurones convolutionnels (CNN) appliqués à la classification d'images.
Les CNN sont largement utilisés en vision par ordinateur en raison de leur capacité à extraire
automatiquement des caractéristiques hiérarchiques à partir des données d'images. Cependant, le choix
de la fonction d'activation peut avoir un impact significatif sur l'efficacité du modèle.
Nous avons évalué les performances de l’un des modèles CNN populaire, nomé ResNet18, en utilisant
différentes fonctions d'activation telles que ReLU, Sigmoid, Tanh, et Swish, etc…. Les
expérimentations ont été menées sur des ensembles de données d'images variées, incluant MNIST,
Fashion-MNIST, et SVHN (Street View House Numbers) Dataset, pour garantir une évaluation
complète.
Les résultats montrent que certaines fonctions d'activation, comme Swish, LeakyReLU, Mish, ELU,
Softplus, Gelu, offrent des performances supérieures en termes de précision de classification, en
particulier pour les modèles plus profonds et complexes. En revanche, les fonctions d'activation telles
que Tanh, ELU, Softsign ont tendance à causer des problèmes de gradient vanishing, ce qui peut limiter
l'apprentissage des modèles profonds.
Cette étude met en évidence l'importance du choix approprié des fonctions d'activation pour optimiser
les performances des CNN dans les tâches de classification d'images. Elle fournit également des
recommandations pratiques pour les chercheurs et les ingénieurs dans le développement de modèles
CNN efficaces.