Please use this identifier to cite or link to this item: http://dspace.univ-guelma.dz/jspui/handle/123456789/11668
Title: Détection d'objets par Deep Neural Network à l'aide du modèle YOLO en temps réel.
Authors: MESBAH, FETHIA
Keywords: Détection d'objets, Réseaux de neurones convolutifs (CNN), Apprentissage en profondeur (Deep Learning), YOLO.
Issue Date: 2021
Abstract: Aujourd'hui, en raison du développement continu des capacités informatiques et de la grande disponibilité des données, l'apprentissage en profondeur est utilisé dans de nombreux domaines, en particulier la vision par ordinateur. Grâce aux algorithmes d'apprentissage profond, le domaine de la détection d'objets, comme l'une des applications de vision par ordinateur, a connu une révolution complète. Ces applications sont basées sur les réseaux de neurones convolutifs CNN. Parce que les modèles de détection d'objets en temps réel ont connu une révolution très rapide, ils sont en termes de la vitesse de détection et de précision. Le but de ce travail est de rechercher et d'appliquer des algorithmes de détection d'objets d'apprentissage en profondeur pour aider les personnes aveugles en détectant les objets présents dans la maison. Nous nous sommes concentrés dans cette étude sur l'algorithme de détection d'objet YOLO, qui est une méthode pratiquement reconnue et approuvée. Par conséquent, nous avons essayé de ré-entraîner le model YOLO sur des sous classes de la base de données PASCAL VOC et sur la base de données ExDark qui est une base réalisée sous un environnement à faible luminosité, ou la majorité des images sont prise la nuit. Nous avons obtenu des résultats très satisfaisants avec un taux de précision 68%, avec un aperçu qui reflète la grande supériorité de l'algorithme de détection d'objet YOLO en temps réel sur beaucoup d’autres modèles.
URI: http://dspace.univ-guelma.dz/jspui/handle/123456789/11668
Appears in Collections:Master

Files in This Item:
File Description SizeFormat 
MESBAH_FETHIA_F5.pdf6,5 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.