Ahmed Fawzy Mohamed Gad
Une autre bibliothèque open source appelée NumPyCNNAndroid est recommandée pour limiter la surcharge de construction et d'exécution de systèmes neuronaux convolutionnels sur les gadgets Android. La bibliothèque est écrite en Python 3. Elle utilise Kivy pour construire l'interface de l'application et Python numérique pour construire le système lui-même. La bibliothèque prend en charge les couches les plus connues. Par rapport aux bibliothèques d'apprentissage profond généralement connues, NumPyCNNAndroid évite la surcharge supplémentaire liée à la création du système adapté à l'exécution sur les téléphones portables. Les résultats des tests confirment la justesse de l'exécution de la bibliothèque en examinant les résultats de la bibliothèque proposée et de TensorFlow en fonction de l'erreur moyenne maximale. NumPyCNNAndroid est un projet qui assemble des systèmes neuronaux convolutionnels pour les gadgets Android à l'aide de NumPy et Kivy. L'application est conçue pour gérer les trois couches conv-relu-pool progressives, afficher leurs rendements, revenir afin que l'utilisateur puisse exécuter les trois couches suivantes en cliquant sur un bouton en bas de l'écran. Le résultat précédent avant d'appuyer sur le bouton sera utilisé pour un traitement supplémentaire. Cette initiative s'appuie sur une entreprise passée appelée NumPyCNN, mais NumPyCNNAndroid s'attaque actuellement à Android. Avec les récentes avancées dans les technologies de système sur puce (SoC) mobiles, les performances des appareils Android portables ont été multipliées par plusieurs au cours des dernières années. Avec leurs processeurs multicœurs, leurs GPU dédiés et leurs gigaoctets de RAM, les capacités des smartphones actuels vont déjà bien au-delà de l'exécution des applications téléphoniques standard intégrées ou de simples jeux mobiles. Alors que leur puissance de calcul dépasse déjà largement les besoins de la plupart des cas d'utilisation quotidiens, les algorithmes d'intelligence artificielle restent un défi, même pour les smartphones et tablettes haut de gamme. De nombreux développements récents dans le domaine de l'apprentissage profond sont cependant étroitement liés aux tâches destinées aux appareils mobiles. Un groupe de tâches non classifié concerne les problèmes de vision par ordinateur tels que la classification d'images, l'amélioration et la super-résolution d'images, la reconnaissance optique de caractères, le suivi d'objets, la compréhension de scènes visuelles, la détection et la reconnaissance de visages, le suivi du regard, etc. Un autre groupe de tâches englobe divers problèmes de traitement du langage naturel tels que la traduction en langage naturel, la complétion de phrases, l'analyse des sentiments des phrases ou les chatbots interactifs. Un groupe distinct traite du traitement des données de capteurs en ligne pour la reconnaissance de l'activité humaine à partir des données d'accéléromètre, la reconnaissance des gestes ou la surveillance du sommeil. Plusieurs autres problèmes d'apprentissage profond sur les smartphones sont liés à la reconnaissance vocale, à la réalité virtuelle et à de nombreuses autres tâches. Malgré l'intérêt croissant pour l'apprentissage profond pour les applications mobiles, la majorité des algorithmes d'IA ne sont pas disponibles sur les smartphones ou sont exécutés sur des serveurs distants en raison des limitations matérielles des téléphones susmentionnées. Cette dernière option n'est pas non plus sans faille, ce qui entraîne :a) problèmes de confidentialité ; b) dépendance à une connexion Internet ; c) retards associés à la latence du réseau ; d) problèmes de goulot d'étranglement — le nombre de clients possibles dépend des capacités de calcul des serveurs. Pour surmonter ces problèmes, il y a eu un certain nombre de tentatives pour porter des algorithmes séparés ou des bibliothèques entières d'apprentissage automatique sur des plates-formes mobiles avec une accélération matérielle (HA) supplémentaire à l'aide de GPU ou de DSP. En 2008, les auteurs ont mis en œuvre un moteur de classification de réseau neuronal mobile capable de tâches d'inférence de capteur sur le DSP Hexagon de Qualcomm. Bien qu'ils aient obtenu des résultats de consommation d'énergie très impressionnants, le DSP n'a pu exécuter que des modèles CNN très simples en raison de son petit programme et de son espace mémoire. En 2009, les auteurs ont présenté une bibliothèque accélérée par GPU CNNdroid pour l'exécution parallèle de CNN pré-entraînés sur des GPU mobiles
Biographie :
A étudié à l'Université de Menoufia, Égypte