menu
close

Les accélérateurs neuronaux propulsent la transition vers le Tiny Deep Learning

L’industrie de l’IA connaît une évolution majeure, passant du Tiny Machine Learning (TinyML) de base à des implémentations Tiny Deep Learning (TinyDL) plus sophistiquées sur des dispositifs edge à ressources limitées. Cette transition est portée par les innovations dans les unités de traitement neuronal, les techniques d’optimisation des modèles et les outils de développement spécialisés. Ces avancées permettent le déploiement d’applications d’IA de plus en plus complexes sur des microcontrôleurs, dans les secteurs de la santé, de la surveillance industrielle et de l’électronique grand public.
Les accélérateurs neuronaux propulsent la transition vers le Tiny Deep Learning

Le paysage de l’IA embarquée connaît une transformation fondamentale, les développeurs allant au-delà des modèles d’apprentissage automatique simples pour déployer des réseaux neuronaux profonds sophistiqués sur du matériel extrêmement contraint en ressources.

Alors que le TinyML traditionnel se concentrait sur des tâches d’inférence basiques pour microcontrôleurs, le paradigme émergent du Tiny Deep Learning (TinyDL) représente une avancée significative dans les capacités de calcul en périphérie (edge computing). La prolifération des objets connectés, des capteurs portables aux systèmes de surveillance industrielle, nécessite une intelligence artificielle embarquée de plus en plus sophistiquée. Le déploiement d’algorithmes complexes sur ces plateformes limitées en ressources pose des défis majeurs, stimulant l’innovation dans des domaines tels que la compression de modèles et le matériel spécialisé. Les chercheurs dépassent désormais les modèles d’apprentissage automatique simples, appelés « TinyML », pour déployer des architectures « Tiny Deep Learning » (TinyDL) plus puissantes mais toujours compactes.

Ce changement est rendu possible par plusieurs avancées technologiques clés. Le principe fondamental du TinyDL réside dans l’optimisation des modèles. Les modèles de deep learning, généralement volumineux et gourmands en calcul, nécessitent une adaptation importante pour être déployés efficacement sur des dispositifs edge. Des techniques telles que la quantification, qui réduit la précision des représentations numériques dans le modèle, sont essentielles. Par exemple, convertir des nombres flottants 32 bits en entiers 8 bits réduit considérablement la taille du modèle et la charge de calcul, parfois au détriment d’une légère perte de précision. L’élagage (pruning), qui consiste à supprimer systématiquement les connexions redondantes dans un réseau neuronal, contribue également à la compression et à l’accélération des modèles.

Le matériel dédié à l’accélération neuronale s’avère crucial dans cette transition. STMicroelectronics a lancé le STM32N6, marquant une étape majeure dans la technologie des microcontrôleurs (MCU), puisqu’il s’agit, selon ST, du premier à intégrer un matériel dédié à l’accélération de l’IA. Cela représente un tournant important dans l’évolution du matériel IA. Historiquement, deux événements majeurs ont marqué cette évolution : la puce A11 Bionic d’Apple en 2017, premier processeur d’application à intégrer une accélération IA, et l’architecture Pascal de Nvidia en 2016, qui a démontré le potentiel des GPU pour les applications IA.

L’accélérateur Neural-ART du STM32N6 actuel dispose de près de 300 unités de multiplication-accumulation configurables et de deux bus mémoire AXI 64 bits, offrant un débit de 600 GOPS. C’est 600 fois plus que ce qui est possible sur le STM32H7 le plus rapide, qui ne possède pas de NPU. La série STM32N6 est à ce jour la gamme de microcontrôleurs la plus puissante de STMicroelectronics, conçue pour répondre aux applications edge IA les plus exigeantes. Elle intègre un cœur Arm Cortex-M55 à 800 MHz et un accélérateur Neural-ART fonctionnant à 1 GHz, délivrant jusqu’à 600 GOPS pour l’inférence IA en temps réel. Avec 4,2 Mo de RAM et un ISP dédié, elle est optimisée pour les tâches de vision, d’audio et d’IoT industriel.

Les frameworks logiciels évoluent en parallèle du matériel pour accompagner cette transition. Les frameworks TinyML offrent une infrastructure robuste et efficace permettant aux organisations et aux développeurs d’exploiter leurs données et de déployer des algorithmes avancés sur des dispositifs edge. Ces frameworks proposent un large éventail d’outils et de ressources spécifiquement conçus pour soutenir les initiatives stratégiques en Tiny Machine Learning. Les principaux frameworks pour la mise en œuvre du TinyML incluent TensorFlow Lite (TF Lite), Edge Impulse, PyTorch Mobile, uTensor, ainsi que des plateformes comme STM32Cube.AI, NanoEdgeAIStudio, NXP eIQ et Microsoft Embedded Learning Library.

À mesure que cette technologie arrive à maturité, on peut s’attendre à voir des applications d’IA de plus en plus sophistiquées fonctionner directement sur de petits dispositifs edge, ouvrant la voie à de nouveaux cas d’usage tout en préservant la confidentialité, en réduisant la latence et en minimisant la consommation d’énergie. La transition vers le Tiny Deep Learning marque une étape majeure pour rendre l’IA avancée accessible dans des environnements à ressources limitées.

Source:

Latest News