Abstrait

Machine Learning 2018 : aperçu des avancées récentes de l'application de l'apprentissage profond à la vision par ordinateur - Abed Benaichouche - Inception Institute of Artificial Intelligence

Abed Benaichouche

Dernièrement, l'apprentissage profond (DL) a remporté divers défis dans la vision sur PC et l'IA. Dans cette introduction, nous présenterons les utilisations réelles du réseau neuronal conventionnel (CNN), du réseau récurrent (RNN) et du réseau antagoniste génératif (GAN) dans le domaine de la vision sur PC. Dans l'introduction, nous montrerons une détermination des recherches récentes que l'Inception Institute of Artificial Intelligence (IIAI) mène dans le domaine de la vision sur PC et de la puissance cérébrale artificielle. Pour le CNN, nous présenterons son application pour l'identification et l'explication des visages, une démonstration pour la reconnaissance d'objets et l'estimation de la posture de la caméra. Pour les GAN, nous montrerons son utilisation pour la coloration des images et le déplacement du style d'exécution. Enfin, nous présentons une autre méthodologie pour l'identification des visages et les super-objectifs utilisant à la fois les modèles CNN et GAN. Pour chaque démonstration, nous présentons le système structuré, ses contraintes et les points de vue donnés pour une amélioration envisageable. Avec les progrès récents des technologies numériques, la taille des ensembles de données est devenue trop importante pour que les techniques traditionnelles de traitement des données et d'apprentissage automatique ne puissent pas y faire face efficacement. Cependant, l'analyse d'ensembles de données complexes, de grande dimension et contaminés par le bruit est un énorme défi, et il est crucial de développer de nouveaux algorithmes capables de résumer, classer, extraire des informations importantes et de les convertir sous une forme compréhensible. Pour résoudre ces problèmes, les modèles d'apprentissage profond (DL) ont montré des performances exceptionnelles au cours de la dernière décennie. L'apprentissage profond (DL) a révolutionné l'avenir de l'intelligence artificielle (IA). Il a résolu de nombreux problèmes complexes qui existaient dans la communauté de l'IA depuis de nombreuses années. En fait, les modèles DL sont des variantes plus profondes des réseaux de neurones artificiels (RNA) avec plusieurs couches, qu'elles soient linéaires ou non linéaires. Chaque couche est connectée à ses couches inférieures et supérieures par des poids différents. La capacité des modèles DL à apprendre des caractéristiques hiérarchiques à partir de divers types de données, par exemple numériques, images, textes et audio, les rend puissants pour résoudre des problèmes de reconnaissance, de régression, semi-supervisés et non supervisés. Ces dernières années, diverses architectures profondes avec différents paradigmes d'apprentissage ont été rapidement introduites pour développer des machines qui peuvent fonctionner de manière similaire à l'homme ou même mieux dans différents domaines d'application tels que le diagnostic médical, les voitures autonomes, le langage naturel et le traitement d'images et la prévision prédictive. Pour montrer dans une certaine mesure certaines avancées récentes de l'apprentissage profond, nous avons sélectionné 14 articles parmi les articles acceptés dans cette revue pour organiser ce numéro. En nous concentrant sur les développements récents des architectures DL et de leurs applications, nous classons les articles de ce numéro en quatre catégories : (1) architectures profondes et réseaux neuronaux conventionnels, (2) apprentissage incrémental, (3) réseaux neuronaux récurrents et (4) modèles génératifs et exemples contradictoires.Le réseau neuronal profond (DNN) est l'un des modèles DL les plus courants qui contient plusieurs couches d'opérations linéaires et non linéaires. Le DNN est l'extension du réseau neuronal standard avec plusieurs couches cachées, ce qui permet au modèle d'apprendre des représentations plus complexes des données d'entrée. De plus, le réseau neuronal convolutionnel (CNN) est une variante des DNN, inspirée du cortex visuel des animaux. Le CNN contient généralement trois types de couches, notamment les couches de convolution, de pooling et entièrement connectées. Les couches de convolution et de pooling sont ajoutées aux niveaux inférieurs. Les couches de convolution génèrent un ensemble d'activations linéaires, qui est suivi de fonctions non linéaires. En fait, les couches de convolution appliquent certains filtres pour réduire la complexité des données d'entrée. Ensuite, les couches de pooling sont utilisées pour le sous-échantillonnage des résultats filtrés. Les couches de pooling parviennent à réduire la taille des cartes d'activation en les transférant dans une matrice plus petite. Par conséquent, le pooling résout le problème de sur-ajustement en réduisant la complexité. Les couches entièrement connectées sont situées après les couches de convolution et de regroupement, afin d'apprendre des représentations plus abstraites des données d'entrée. Dans la dernière couche, une fonction de perte, par exemple un classificateur soft-max, est utilisée pour mapper les données d'entrée à leurs.

Biographie:

Abed Benaichouche a travaillé à l'Institut d'intelligence artificielle Inception, aux Émirats arabes unis

Avertissement: Ce résumé a été traduit à l'aide d'outils d'intelligence artificielle et n'a pas encore été examiné ni vérifié

Indexé dans

Google Scholar
Academic Journals Database
Open J Gate
Academic Keys
ResearchBible
CiteFactor
Electronic Journals Library
RefSeek
Hamdard University
Scholarsteer
International Innovative Journal Impact Factor (IIJIF)
International Institute of Organised Research (I2OR)
Cosmos

Voir plus