menu
close

Pengakselerasi Neural Pacu Peralihan ke Deep Learning Mikro

Industri AI sedang menyaksikan evolusi ketara daripada Tiny Machine Learning (TinyML) asas kepada pelaksanaan Tiny Deep Learning (TinyDL) yang lebih canggih pada peranti edge yang terhad sumber. Peralihan ini didorong oleh inovasi dalam unit pemprosesan neural, teknik pengoptimuman model, dan alat pembangunan khusus. Kemajuan ini membolehkan aplikasi AI yang semakin kompleks dijalankan pada mikropengawal dalam sektor penjagaan kesihatan, pemantauan industri, dan elektronik pengguna.
Pengakselerasi Neural Pacu Peralihan ke Deep Learning Mikro

Landskap AI terbenam sedang mengalami transformasi asas apabila para pembangun bergerak melangkaui model pembelajaran mesin ringkas ke arah pelaksanaan rangkaian neural mendalam yang canggih pada perkakasan yang sangat terhad sumbernya.

Walaupun TinyML tradisional menumpukan kepada tugasan inferens asas untuk mikropengawal, paradigma Tiny Deep Learning (TinyDL) yang sedang muncul mewakili lonjakan besar dalam keupayaan pengkomputeran edge. Penyebaran peranti berhubung internet, daripada sensor boleh pakai hingga pemantau industri, menuntut kecerdasan buatan pada peranti yang semakin canggih. Pelaksanaan algoritma kompleks pada platform terhad sumber ini menghadirkan cabaran besar, mendorong inovasi dalam bidang seperti pemampatan model dan perkakasan khusus. Para penyelidik kini bergerak melangkaui model pembelajaran mesin ringkas, dikenali sebagai 'TinyML', ke arah pelaksanaan seni bina 'Tiny Deep Learning' (TinyDL) yang lebih berkuasa tetapi masih padat.

Peralihan ini didayakan oleh beberapa perkembangan teknologi utama. Prinsip teras TinyDL terletak pada pengoptimuman model. Model deep learning, yang biasanya besar dan memerlukan pengiraan intensif, memerlukan penyesuaian besar untuk pelaksanaan berkesan pada peranti edge. Teknik seperti kuantisasi, yang mengurangkan ketepatan perwakilan berangka dalam model, adalah sangat penting. Sebagai contoh, menukar nombor floating-point 32-bit kepada integer 8-bit secara dramatik mengurangkan saiz model dan keperluan pengiraan, walaupun mungkin mengorbankan sedikit ketepatan. Pruning, iaitu penyingkiran sistematik sambungan berlebihan dalam rangkaian neural, turut membantu pemampatan dan pecutan model.

Perkakasan pengakselerasi neural khusus terbukti sangat penting dalam peralihan ini. STMicroelectronics telah memperkenalkan STM32N6, menandakan satu langkah besar dalam teknologi MCU apabila ia, menurut ST, menjadi yang pertama menampilkan perkakasan khusus untuk pecutan AI. Ini menandakan titik perubahan penting dalam evolusi perkakasan AI. Melihat kembali sejarah, terdapat dua peristiwa utama dalam evolusi perkakasan AI: cip Apple A11 Bionic pada 2017, pemproses aplikasi pertama yang menyertakan pecutan AI, dan seni bina Pascal Nvidia pada 2016, yang membuktikan potensi GPU untuk aktiviti AI.

Pengakselerasi Neural-ART dalam STM32N6 hari ini mempunyai hampir 300 unit multiply-accumulate boleh dikonfigurasi dan dua bas memori AXI 64-bit untuk kadar pemprosesan 600 GOPS. Ini 600 kali ganda lebih pantas berbanding STM32H7 terpantas yang tidak mempunyai NPU. Siri STM32N6 ialah mikropengawal paling berkuasa daripada STMicroelectronics setakat ini, direka untuk menangani aplikasi AI edge yang mencabar. Ia menampilkan teras Arm Cortex-M55 800 MHz dan Pengakselerasi Neural-ART pada 1 GHz, memberikan sehingga 600 GOPS untuk inferens AI masa nyata. Dengan 4.2 MB RAM dan ISP khusus, ia disesuaikan untuk tugas penglihatan, audio, dan IoT industri.

Kerangka perisian turut berkembang seiring dengan perkakasan untuk menyokong peralihan ini. Kerangka TinyML menyediakan infrastruktur yang kukuh dan cekap yang membolehkan organisasi dan pembangun memanfaatkan data mereka dan melaksanakan algoritma lanjutan pada peranti edge dengan berkesan. Kerangka ini menawarkan pelbagai alat dan sumber yang direka khusus untuk memacu inisiatif strategik dalam Tiny Machine Learning. Antara kerangka utama untuk pelaksanaan TinyML termasuk TensorFlow Lite (TF Lite), Edge Impulse, PyTorch Mobile, uTensor, serta platform seperti STM32Cube.AI, NanoEdgeAIStudio, NXP eIQ, dan Microsoft Embedded Learning Library.

Apabila teknologi ini semakin matang, kita boleh menjangkakan aplikasi AI yang semakin canggih akan berjalan terus pada peranti edge mikro, membolehkan kes penggunaan baharu sambil mengekalkan privasi, mengurangkan latensi, dan meminimumkan penggunaan tenaga. Peralihan ke Tiny Deep Learning mewakili satu pencapaian penting dalam usaha menjadikan AI lanjutan boleh diakses dalam persekitaran terhad sumber.

Source:

Latest News