Le paysage de l’IA embarquée subit une transformation fondamentale alors que les développeurs vont au-delà des modèles d’apprentissage automatique simples pour déployer des réseaux neuronaux profonds sophistiqués sur du matériel aux ressources très limitées.
Alors que le TinyML traditionnel se concentrait sur des tâches d’inférence de base pour les microcontrôleurs, le paradigme émergent du Tiny Deep Learning (TinyDL) représente un bond en avant significatif dans les capacités de l’informatique en périphérie. La prolifération des appareils connectés à Internet, des capteurs portables aux moniteurs industriels, exige une intelligence artificielle embarquée de plus en plus sophistiquée. Le déploiement d’algorithmes complexes sur ces plateformes limitées pose des défis majeurs, stimulant l’innovation dans des domaines comme la compression de modèles et le matériel spécialisé. Les chercheurs dépassent maintenant les modèles d’apprentissage automatique simples, appelés « TinyML », pour déployer des architectures « Tiny Deep Learning » (TinyDL) plus puissantes, mais toujours compactes.
Ce changement est rendu possible grâce à plusieurs avancées technologiques clés. Le principe fondamental du TinyDL repose sur l’optimisation des modèles. Les modèles d’apprentissage profond, généralement volumineux et gourmands en calcul, nécessitent une adaptation importante pour un déploiement efficace sur les appareils en périphérie. Des techniques comme la quantification, qui réduit la précision des représentations numériques dans le modèle, sont essentielles. Par exemple, convertir des nombres à virgule flottante 32 bits en entiers 8 bits réduit considérablement la taille du modèle et les besoins en calcul, au prix potentiel d’une légère perte de précision. L’élagage, soit la suppression systématique de connexions redondantes dans un réseau neuronal, contribue également à la compression et à l’accélération du modèle.
Le matériel dédié à l’accélération neuronale s’avère crucial dans cette transition. STMicroelectronics a lancé le STM32N6, marquant une étape importante dans la technologie des microcontrôleurs (MCU), puisqu’il s’agit, selon ST, du premier à intégrer un matériel dédié à l’accélération de l’IA. Cela marque un tournant majeur dans l’évolution du matériel d’IA. Historiquement, deux événements majeurs ont marqué cette évolution : la puce A11 Bionic d’Apple en 2017, premier processeur d’application à intégrer une accélération IA, et l’architecture Pascal de Nvidia en 2016, qui a démontré le potentiel des GPU pour les activités d’IA.
L’accélérateur Neural-ART du STM32N6 actuel compte près de 300 unités de multiplication-accumulation configurables et deux bus mémoire AXI 64 bits pour un débit de 600 GOPS. C’est 600 fois plus que ce qui est possible sur le STM32H7 le plus rapide, qui n’a pas de NPU. La série STM32N6 est le microcontrôleur le plus puissant jamais conçu par STMicroelectronics, pensé pour des applications d’IA en périphérie exigeantes. Il est doté d’un cœur Arm Cortex-M55 à 800 MHz et d’un accélérateur Neural-ART à 1 GHz, offrant jusqu’à 600 GOPS pour l’inférence IA en temps réel. Avec 4,2 Mo de RAM et un ISP dédié, il est taillé pour les tâches de vision, d’audio et d’IoT industriel.
Les cadres logiciels évoluent en parallèle du matériel pour soutenir cette transition. Les cadres TinyML offrent une infrastructure robuste et efficace permettant aux organisations et aux développeurs d’exploiter leurs données et de déployer efficacement des algorithmes avancés sur des appareils en périphérie. Ces cadres proposent une vaste gamme d’outils et de ressources spécifiquement conçus pour soutenir les initiatives stratégiques en Tiny Machine Learning. Les principaux cadres pour l’implémentation du TinyML incluent TensorFlow Lite (TF Lite), Edge Impulse, PyTorch Mobile, uTensor, ainsi que des plateformes comme STM32Cube.AI, NanoEdgeAIStudio, NXP eIQ et la Embedded Learning Library de Microsoft.
À mesure que cette technologie mûrit, on peut s’attendre à voir des applications d’IA de plus en plus sophistiquées s’exécuter directement sur de minuscules appareils en périphérie, ouvrant la voie à de nouveaux cas d’utilisation tout en préservant la vie privée, en réduisant la latence et en minimisant la consommation d’énergie. La transition vers le Tiny Deep Learning marque une étape importante pour rendre l’IA avancée accessible dans des environnements à ressources limitées.