menu
close

Themis AI dari MIT Menangani Masalah Ketidakpastian dalam Sistem AI

Themis AI, sebuah syarikat terbitan MIT yang diasaskan oleh penyelidik Daniela Rus, Alexander Amini, dan Elaheh Ahmadi, telah membangunkan Capsa, sebuah platform inovatif yang membolehkan model AI mengenal pasti ketidakpastian mereka sendiri. Teknologi ini menangani kelemahan kritikal dalam sistem AI semasa yang sering memberikan jawapan dengan yakin walaupun kekurangan pengetahuan mencukupi. Dengan mengkuantifikasi ketidakpastian model dan menandakan potensi ralat sebelum ia berlaku, Themis AI bertujuan menjadikan kecerdasan buatan lebih selamat untuk aplikasi berisiko tinggi merentasi pelbagai industri.
Themis AI dari MIT Menangani Masalah Ketidakpastian dalam Sistem AI

Sistem kecerdasan buatan seperti ChatGPT kini sangat mahir menghasilkan respons yang kedengaran meyakinkan untuk hampir semua pertanyaan. Namun, sistem ini sering gagal mengakui batasan mereka atau menyatakan ketidakpastian apabila perlu—satu kekurangan yang membawa risiko besar apabila penggunaan AI semakin meluas dalam sektor-sektor kritikal.

Themis AI, yang diasaskan pada 2021 oleh penyelidik MIT Daniela Rus, Alexander Amini, dan Elaheh Ahmadi, telah membangunkan penyelesaian untuk masalah ini. Platform mereka, Capsa, boleh diintegrasikan dengan mana-mana model pembelajaran mesin untuk mengesan dan membetulkan output yang tidak boleh dipercayai dalam beberapa saat sahaja.

"Kita semua pernah melihat contoh AI berhalusinasi atau melakukan kesilapan," jelas Amini, pengasas bersama Themis AI. "Apabila AI digunakan secara meluas, kesilapan tersebut boleh membawa akibat yang dahsyat. Themis menjadikan mana-mana AI mampu meramalkan dan menjangka kegagalan mereka sendiri sebelum ia berlaku."

Teknologi ini berfungsi dengan mengubah suai model AI supaya dapat mengenal pasti corak dalam pemprosesan data mereka yang menunjukkan kekaburan, ketidaklengkapan, atau bias. Ini membolehkan model mengkuantifikasi ketidakpastian mereka sendiri untuk setiap output dan menandakan potensi ralat. Pelaksanaan Capsa sangat mudah—hanya memerlukan beberapa baris kod untuk mengubah model sedia ada menjadi varian yang peka terhadap ketidakpastian.

Capsa sudah digunakan dalam pelbagai industri. Syarikat farmaseutikal menggunakannya untuk menambah baik model AI yang mengenal pasti calon ubat dan meramal prestasi ujian klinikal. Pembangun model bahasa besar pula mengimplementasikannya bagi membolehkan penjawapan soalan yang lebih boleh dipercayai serta menandakan output yang tidak boleh dipercayai. Themis AI juga sedang berbincang dengan syarikat semikonduktor untuk meningkatkan penyelesaian AI bagi persekitaran pengkomputeran tepi (edge computing).

"Dengan mengkuantifikasi secara automatik ketidakpastian aleatorik dan epistemik, Capsa ialah teknologi transformatif yang membolehkan ralat model dikesan sebelum ia menjadi kesilapan yang merugikan," kata Rus, yang juga berkhidmat sebagai pengarah Makmal Sains Komputer dan Kecerdasan Buatan MIT. "Ia memperluaskan penggunaan sistem AI dalam aplikasi yang menuntut keselamatan dan kebolehpercayaan, seperti robotik dan pemanduan autonomi."

Seiring AI terus berkembang dan menembusi sektor-sektor kritikal, penyelesaian seperti Capsa akan menjadi instrumen penting dalam membina sistem yang lebih dipercayai dan mengakui batasan mereka—langkah penting ke arah pelaksanaan AI yang bertanggungjawab dalam persekitaran berisiko tinggi.

Source:

Latest News