El panorama de la IA embebida está experimentando una transformación fundamental, ya que los desarrolladores van más allá de los modelos simples de aprendizaje automático para desplegar redes neuronales profundas sofisticadas en hardware con recursos muy limitados.
Mientras que el TinyML tradicional se centraba en tareas básicas de inferencia para microcontroladores, el emergente paradigma del Tiny Deep Learning (TinyDL) representa un salto significativo en las capacidades de computación en el edge. La proliferación de dispositivos conectados a Internet, desde sensores vestibles hasta monitores industriales, exige una inteligencia artificial en el dispositivo cada vez más sofisticada. El despliegue de algoritmos complejos en estas plataformas con recursos limitados presenta importantes desafíos, impulsando la innovación en áreas como la compresión de modelos y el hardware especializado. Los investigadores están superando los modelos simples de aprendizaje automático, denominados 'TinyML', para desplegar arquitecturas de 'Tiny Deep Learning' (TinyDL) más potentes pero aún compactas.
Este cambio está siendo posible gracias a varios desarrollos tecnológicos clave. El principio fundamental que sustenta el TinyDL reside en la optimización de modelos. Los modelos de deep learning, normalmente de gran tamaño y muy exigentes computacionalmente, requieren una adaptación sustancial para poder desplegarse eficazmente en dispositivos edge. Técnicas como la cuantización, que reduce la precisión de las representaciones numéricas dentro del modelo, son fundamentales. Por ejemplo, convertir números de coma flotante de 32 bits a enteros de 8 bits reduce drásticamente tanto el tamaño del modelo como las demandas computacionales, aunque potencialmente a costa de algo de precisión. El pruning, o eliminación sistemática de conexiones redundantes en una red neuronal, contribuye aún más a la compresión y aceleración del modelo.
El hardware dedicado de aceleración neuronal está resultando crucial en esta transición. STMicroelectronics ha presentado el STM32N6, marcando un hito en la tecnología de microcontroladores al convertirse, según ST, en el primero en incorporar hardware dedicado para la aceleración de IA. Esto supone un punto de inflexión en la evolución del hardware de IA. Si miramos atrás, ha habido dos grandes hitos en la evolución del hardware de IA: el chip A11 Bionic de Apple en 2017, el primer procesador de aplicaciones en incluir aceleración de IA, y la arquitectura Pascal de Nvidia en 2016, que demostró el potencial de las GPU para actividades de IA.
El acelerador Neural-ART del actual STM32N6 cuenta con casi 300 unidades multiplicadoras-acumuladoras configurables y dos buses de memoria AXI de 64 bits para un rendimiento de 600 GOPS. Esto supone 600 veces más que lo posible en el STM32H7 más rápido, que no dispone de NPU. La serie STM32N6 es el microcontrolador más potente de STMicroelectronics hasta la fecha, diseñado para gestionar aplicaciones de IA exigentes en el edge. Incorpora un núcleo Arm Cortex-M55 a 800 MHz y un acelerador Neural-ART funcionando a 1 GHz, ofreciendo hasta 600 GOPS para inferencia de IA en tiempo real. Con 4,2 MB de RAM y un ISP dedicado, está orientado a tareas de visión, audio e IoT industrial.
Los frameworks de software evolucionan en paralelo al hardware para facilitar esta transición. Los frameworks TinyML proporcionan una infraestructura robusta y eficiente que permite a organizaciones y desarrolladores aprovechar sus datos y desplegar algoritmos avanzados en dispositivos edge de manera eficaz. Estos frameworks ofrecen una amplia gama de herramientas y recursos diseñados específicamente para impulsar iniciativas estratégicas en Tiny Machine Learning. Los principales frameworks para la implementación de TinyML incluyen TensorFlow Lite (TF Lite), Edge Impulse, PyTorch Mobile, uTensor, y plataformas como STM32Cube.AI, NanoEdgeAIStudio, NXP eIQ y Embedded Learning Library de Microsoft.
A medida que esta tecnología madura, podemos esperar ver aplicaciones de IA cada vez más sofisticadas ejecutándose directamente en pequeños dispositivos edge, permitiendo nuevos casos de uso mientras se preserva la privacidad, se reduce la latencia y se minimiza el consumo energético. La transición hacia el Tiny Deep Learning representa un hito importante para hacer que la IA avanzada sea accesible en entornos con recursos limitados.