Afficher la notice abrégée
dc.contributor.author |
MESBAH, FETHIA |
|
dc.date.accessioned |
2022-02-07T13:36:47Z |
|
dc.date.available |
2022-02-07T13:36:47Z |
|
dc.date.issued |
2021 |
|
dc.identifier.uri |
http://dspace.univ-guelma.dz/jspui/handle/123456789/11668 |
|
dc.description.abstract |
Aujourd'hui, en raison du développement continu des capacités informatiques et de la grande
disponibilité des données, l'apprentissage en profondeur est utilisé dans de nombreux domaines, en particulier la vision par ordinateur. Grâce aux algorithmes d'apprentissage profond, le domaine de la détection d'objets, comme l'une des applications de vision par ordinateur, a connu une révolution complète. Ces applications sont basées sur les réseaux de neurones convolutifs CNN. Parce que les modèles de détection d'objets en temps réel ont connu une révolution très rapide, ils sont en termes de la vitesse de détection et de précision. Le but de ce travail est de rechercher et d'appliquer des algorithmes de détection d'objets d'apprentissage en profondeur pour aider les personnes aveugles en détectant les objets présents dans la maison. Nous nous sommes concentrés dans cette étude sur l'algorithme de détection d'objet YOLO, qui est une méthode pratiquement reconnue et approuvée.
Par conséquent, nous avons essayé de ré-entraîner le model YOLO sur des sous classes de la
base de données PASCAL VOC et sur la base de données ExDark qui est une base réalisée sous
un environnement à faible luminosité, ou la majorité des images sont prise la nuit. Nous avons
obtenu des résultats très satisfaisants avec un taux de précision 68%, avec un aperçu qui reflète la grande supériorité de l'algorithme de détection d'objet YOLO en temps réel sur beaucoup d’autres modèles. |
en_US |
dc.language.iso |
fr |
en_US |
dc.subject |
Détection d'objets, Réseaux de neurones convolutifs (CNN), Apprentissage en profondeur (Deep Learning), YOLO. |
en_US |
dc.title |
Détection d'objets par Deep Neural Network à l'aide du modèle YOLO en temps réel. |
en_US |
dc.type |
Working Paper |
en_US |
Fichier(s) constituant ce document
Ce document figure dans la(les) collection(s) suivante(s)
Afficher la notice abrégée